Home     Inhaltsverzeichnis Elektrotechnik     Zurück

Können Computer denken?

Von Reinhard Golecki  

"Können – zumindest prinzipiell und irgendwann – Maschinen denken?" 

Zur Beantwortung dieser Frage, darauf hat Alan Turing schon vor mehr als vierzig Jahren hingewiesen, ist eine genauere Bestimmung der Begriffe "Denken" und "Maschine" nötig. 

Um mit letzterem anzufangen: A. Turing ging bei seiner Prognose von Digitalcomputern aus. Zwar lassen sich auch andere Architekturen (massive Parallelverarbeitung, Neuronale Netze) äquivalent auf Von-Neumann-Rechnern nachbilden, aber nicht unbedingt auch deren Geschwindigkeit. 

Wenn es stimmt, daß das Gehirn – mit seinen schätzungsweise 1011 Neuronen mit im Durchschnitt je mehr als 1000 Verbindungen zu anderen Neuronen (die Zahl der möglichen Kombinationen übertrifft die Anzahl der Atome im bekannten Universum) – ca. 1015 Operationen pro Sekunde ausführt, so übertrifft das die Leistungsfähigkeit der gegenwärtig vorhandenen Rechner mit massiver Parallelverarbeitung um mehrere Zehnerpotenzen. 

Auch wenn sich die Technik wie bisher rasant weiterentwickelt, stößt man hier möglicherweise auf Grenzen, die sich mit der vorhandenen und absehbaren Technik (z. B. optische statt elektronische Systeme) nicht überwinden lassen. 

Die Arbeitsweise von Neuronen auf subzellulärer Ebene, ihre Biochemie und ihr Zusammenspiel mit anderen organischen Substanzen wie Enzymen ist (wie insgesamt die Arbeitsweise des Gehirns) wenig geklärt. Es kann sich herausstellen, daß die Leistung (Arbeit pro Zeit) des Gehirns tatsächlich organische, molekulare Substanzen und Prozesse erfordert und daß diese Leistung mit vertretbarem Aufwand vielleicht nur auf die durch die Evolution entwickelte Weise zu haben ist. 

Sind Systeme, die auf dieser Basis arbeiten, dann noch "Maschinen"? Noch größere Probleme hat man mit dem "Denken", mit der Frage danach, was genau man denn eigentlich von Computern erwartet, um ihnen diese Fähigkeit zuzusprechen. Freud sah beispielsweise im Denken eine "Aufhaltung der motorischen Abfuhr (des Handelns)", ein inneres "Probehandeln", das sich "aus dem Vorstellen herausbildete" und darüber "erhob und sich den Relationen der Objekteindrücke zuwendete"; es "war wahrscheinlich ursprünglich unbewußt, . . . und erhielt weitere für das Bewußtsein wahrnehmbare Qualitäten erst durch die Bindung an die Wortreste." 

Für Descartes war dagegen Denken noch untrennbar mit Bewußtsein verbunden. Unter Denken verstand er "alles, was derart in uns geschieht, daß wir uns seiner unmittelbar aus uns selbst bewußt sind", und alle Bewußtseinsarten führte er auf den Verstand einerseits und den Willen andererseits zurück. 

Auch für Locke war das Bewußtsein zentral, und zwar als fortlaufende Identität eines Ichs, die es erst ermöglicht, von einer vernunftbegabten und verantwortungsvollen Person zu sprechen. 

Ähnlich mußte für Kant das "Ich denke" alle "Vorstellungen begleiten können; "das Denken war für ihn, als Vermögen des Verstandes, die "Handlung, die Synthesis des Mannigfaltigen", welches durch die Anschauung gegeben wird, "zur Einheit der Apperzeption zu bringen". Darüber stand für ihn die Vernunft, eine Fähigkeit die letztlich "aufs Moralische gestellt" ist. Weiter wird seit Kant bei Denkprozessen (als Operationen mit Vorstellungen) deutlicher und in methodischer Absicht zwischen Begriffsbildung, Urteilen und Schließen unterschieden. 

Mit der Entwicklung der formalen Logik durch Frege und andere wurden diese Operationen objektiviert, vom Bewußtsein und den subjektiven Vorstellungen abgelöst; Gedanken werden in diesem Verständnis durch Denken nicht erzeugt, sondern gefaßt. Damit rückte beim Nachdenken über das Denken immer mehr die Sprache in den Mittelpunkt des Interesses, zunächst als Konzept einer idealen Sprache (für den frühen Wittgenstein war Denken ein Abbilden der logischen Form der Welt in Zeichen), dann die ganz unterschiedlichen "Sprachspiele" der Alltagssprache mit ihren vielfältigen pragmatischen und sozialen Kontexten. Auch wenn der genaue Zusammenhang von Denken und Sprechen (nach Platon sind Denken und Rede dasselbe, Denken ist "das innere Gespräch der Seele mit sich selbst") bis heute strittig ist, gibt es kaum einen Zweifel daran, daß Sprache das wichtigste Medium des Denkens und Sprachverstehen die zentrale, spezifisch menschliche kognitive Leistung ist. 

Mit dieser Wende zur Sprache rückte Intentionalität in das Zentrum der Diskussion: Das Denken handelt von etwas, es hat Bedeutung, es ist auf etwas gerichtet (da sich das Denken aber nicht nur auf äußere Gegenstände und Sachverhalte richten kann, sondern auch auf sich selbst, wird man damit allerdings die Probleme von Subjektivität und Bewußtsein nicht los). 

Versucht man eine Zusammenfassung, so könnte man sagen: Denken ist ein in der Regel bewußter, subjektiv gefärbter und durch das Erleben eines Ichs begleiteter geistiger Vorgang, der sich in theoretischer und praktischer Absicht (z. B. zur Vorbereitung von Handlungen, wenn instinktives oder erlerntes Verhalten nicht ausreicht) auf äußere und innere Sachverhalte richtet und sich dabei sozial und kulturell vermittelter Zeichensysteme bedient. 

Werden in der Philosophie eher die Grundprinzipien und Grenzen des Denkens thematisiert, untersucht die Psychologie – im Anschluß an die Assoziationstheorie Humes – die "Mechanik", die "Funktionsweise" des Denkens. Die Ich-Perspektive der Bewußtseinsphilosophie wird durch die Beobachterperspektive ersetzt, Denken wird als "objektives Verhalten" untersucht (vorzugsweise als "Problemlösen"). Nach der Assoziationstheorie, der Gestaltpsychologie und der "Eliminierung" des Mentalen durch den Behaviorismus stehen nun Ansätze im Vordergrund, die sich am Paradigma der Informationsverarbeitung orientieren, z. B. als weitgehend unbewußte, regelgeleitete Manipulation "Mentaler Modelle" als interne Repräsentationen der Welt. 

Insgesamt hat sich dabei das Interesse weg vom recht unscharfen Begriff des Denkens hin zu dem der Intelligenz (als hinter dem Vollzug des Denkens angenommene, allgemeine Fähigkeit) einerseits und enger umgrenzten einzelnen Leistungen und Fähigkeiten wie Wahrnehmen, Erinnern, Lernen, Schlußfolgern und Sprachgebrauch andererseits verlagert, und als Oberbegriff für diese psychischen Prozesse hat sich der Begriff der Kognition durchgesetzt. 

Die meisten Kognitionspsychologen verstehen sich mittlerweile als Teilnehmer einer Cognitive science, die sich als am "Computermodell des Geistes" orientierte Zusammenarbeit mit Linguisten, Informatikern und Neurobiologen etabliert hat und der sich auch viele KI-ler zugehörig fühlen (auch immer mehr Philosophen – insbesondere die, die nach dem Linguistic turn nun den Naturalistic turn propagieren – fühlen sich von der Verheißung (natur-)wissenschaftlicher Erklärungen für die Rätsel des Geistes angezogen). 

Durch diese Entwicklung werden zwei Trends unterstützt, die das im letzten Absatz vorgestellte, aus der philosophischen Tradition stammende Verständnis vom Denken verändern. Wenn Denken als "objektives Verhalten" verstanden und in erster Linie im Hinblick auf die erbrachte Leistung untersucht (und vom Bewußtsein abgekoppelt) wird, verändert sich erstens auch der Sprachgebrauch. Der Ausdruck "Denken" wird dann – wie schon bei "Fliegen" oder "Schwimmen" – auch auf Artefakte übertragen, die möglicherweise auf andere Art, aber im Ergebnis dasselbe leisten. War zweitens der von Descartes, Locke und Kant entwickelte Begriff des Geistes noch "gekennzeichnet durch die Synthese von intellektuellem und moralischem Tun", erleben wir nun zunehmend eine "Dissoziation von kognitiven und moralischen Kompetenzen, von Intellekt und Urteilskraft." 

Eine klare Antwort auf die zu Beginn dieses Abschnitts gestellte Frage wird von Seiten des Funktionalismus, des "Computermodell des Geistes", der "starken KI" gegeben: Ja! 

Entsprechend programmierte Digitalcomputer können deshalb im Wortsinne denken, weil wir selbst in einem relevanten Sinne solche Computer sind. 

Gegenüber der über dreihundert Jahre alten These "Denken ist Rechnen" von Hobbes kann die zeitgenössische These "Denken ist Komputieren" auf ihrer Habenseite verbuchen: 

  • Das in der Bewußtseinsphilosophie in der Nachfolge von Descartes über Locke und Hume bis Kant entstandene Konzept, daß Denken das regelgeleitete Operieren mit mentalen Repräsentationen der Außenwelt, mit "Ideen" oder "Vorstellungen", sei.

  • Das von Leibniz entworfene, von Frege, Russell, Wittgenstein und Carnap ausgebaute Konzept einer eindeutigen, kontextfreien, idealen Sprache als exaktes Abbild der Welt, als rationale Nachkonstruktion der gesamten Erkenntnis der Wirklichkeit, als narrensichere Methode, als "symbolische Maschine" zum Erfinden und Prüfen durch bloß formale, syntaktische Transformationsregeln, die automatisch der intendierten Semantik Rechnung tragen (wobei Sinn und Bedeutung komplexer Symbole ausschließlich eine Funktion der elementaren Symbole und ihrer Kombination sind). 

  • Turings These, daß jedes nicht willkürliche, regelgeleitete Verhalten ergebnisgleich durch Input, Maschinentafel und Output einer Turingmaschine beschrieben und simuliert werden kann, und sein Nachweis, daß dafür eine universelle Maschine genügt (und äquivalent damit auch jeder uns vertraute, programmierbare Computer vom Von-Neumann-Typ). 

Die Computer-Philosophie des Denkens, mit ihrer These, daß Computer gleichsam per definitionem denken können, teils Ergebnis der Reflexion über die KI, teils deren theoretische Basis, vereint somit zwei traditionelle Stränge der abendländischen Philosophie mit der Erfindung der informationsverarbeitenden Universalmaschine zu einer komputationalen Theorie des Geistes, nach der Denkprozesse formale Operationen über eine unsere Überzeugungen über die Außenwelt symbolisch repräsentierenden, biologisch-physikalisch wie eine Maschinensprache realisierten "Sprache des Geistes" sind.

Ironischerweise wird damit das Programm einer formalen Logik und einer idealen Sprache, mit dem sich Frege ausdrücklich gegen eine psychologische Begründung der Logik und des Denkens wandte, zu einem Fundament der Psychologie, und Sybille Krämer weist mit Recht darauf hin, daß hier eine Kulturtechnik (nämlich Rechnen als symbolisches Operieren) als Vorbild für eine empirische These über einen biologischen Vorgang dient). 

Mit der von Putnam vorgeschlagenen Unterscheidung einer physikalisch-strukturellen und einer logisch-funktionalen Ebene bei der Beschreibung dieser Prozesse will man dabei sowohl den einheitswissenschaftlichen Reduktionismus als auch die Schwächen früherer repräsentationaler Theorien des Geistes vermeiden, den "Vorhang der Ideen" zerreißen, den "Ungeist des Homunkulus" und das von Ryle verspottete "Gespenst in der Maschine" vertreiben (und manche möchten dann auch noch Begriffe wie "Selbst", "Wissen", "Bedeutung" und "Verstehen" – "prescientific idea germs" wie Minsky gerne sagt – "weganalysieren"). Dadurch wird Denken unabhängig von der durch die Evolution hervorgebrachten spezifisch menschlichen Lösung: Geist verhält sich zum Gehirn wie das Programm zur Hardware. 

Das "Computermodell des Geistes" hat, wie angedeutet, entscheidende Schwächen und Lücken: eine befriedigende Erklärung der Semantik und Pragmatik der "Sprache des Geistes", der Verbindungen zur Außenwelt und zu anderen Menschen, von Intentionalität und Verstehen, von der Erfahrung des Bewußtseins und des Ichs, von der Realisierung der funktionalen Zustände durch neurophysiologische Prozesse, ist nicht in Sicht; aber dieser Einwand ist nicht ganz fair, konkurrierende Theorien stehen hierbei nicht besser da. 

Aus der Sicht der KI ist dieses "Paradigma der Kognitionswissenschaft" kein Glaubenssatz, sondern eine empirisch überprüfbare These (wie wir aus den Bemühungen der Wissenschaftstheorie wissen, ist ein solcher Trennstrich allerdings kaum zu ziehen). Auch wenn nicht ganz klar ist, auf Grund welcher empirischer Ergebnisse die Vertreter dieser Theorie bereit sind, sie als gescheitert anzusehen, haben empirische Befunde somit sicher einige Bedeutung. 

1. Die großen Versprechungen der Anfangszeit haben sich nicht erfüllt. Zwar gibt es gewisse Erfolge bei jeweils einzelnen kognitiven Leistungen, aber der große Durchbruch, die Entwicklung von Computerprogrammen oder Robotern mit einem wirklich umfassenden Denkvermögen, wurde nicht erreicht und ist auch nicht in Sicht.

Sprachverstehen, Repräsentation von und Umgang mit Alltagswissen, maschinelles Lernen sind weitgehend ungelöst, und wie die Überlegungen zum Turing-Test und zu CUGAF zeigen, sind Lösungen nur zu erwarten, wenn die Systeme durch Sensoren und Effektoren "eigene" Erfahrungen mit der Wirklichkeit machen können. 

Dabei werden jeweils entscheidende Fortschritte in den genannten Teilbereichen erst erwartet, wenn die Probleme der anderen Bereiche gelöst sind. Die einst optimistische und vom Paradigma (im Sinne Kuhns) der "Hypothese der physikalischen Symbolsysteme" inspirierte Forschergemeinde, die "Good Old Fashioned Artificial Intelligence" (John Haugeland), zerfällt in zunehmend unübersichtliche Teilgruppen und Forschungsbereiche mit jeweils eigenen Themen und spezifischen, häufig ad hoc gewählten Lösungsansätzen. 

Innerhalb der KI sinkt der Stern des "Computermodells des Geistes" zugunsten eines "Gehirnmodells des Computers" (dabei ist wieder, wie schon bei der Metapher "Elekronenhirn" in den 50er Jahren, der Mensch das Vorbild; auch das ist ein Abrücken vom ursprünglichen, nämlich symbolverarbeitenden Ansatz). Kurz: die "starke KI" zeigt deutliche Anzeichen eines degenerierenden Forschungsprogramms (im Sinne von Lakatos). 

2. Auch das ist ein empirischer Befund: Bedeutende Philosophen (und einige Theoretiker und Praktiker der KI und der Kognitionswissenschaft), die zu dieser Sicht entscheidend beigetragen haben, indem sie, meist mit "jugendlichem" Elan, den Versuch unternahmen, das Denken mit formalen Mitteln einzufangen, haben sich davon später selbst distanziert. Gewisse Revisionen im Werk von Russell und Carnap wurden oben schon angedeutet, besonders illustrativ allerdings – neben dem bekannten Umschwung bei Wittgenstein – ist die Entwicklung von Hilary Putnam, einem der Väter des funktionalistischen Gedankens:

"Wir alle haben mitbekommen, wie eine Wissenschaft von der Gesellschaft oder vom Menschen nach der anderen – Psychologie, Soziologie und Ökonomie – unter den Einfluß dieser oder jener Modemasche geraten ist. In den Vereinigten Staaten waren solche Maschen besonders häufig das Ergebnis einer reduktionistischen Vorstellung dessen, was "Wissenschaftlichkeit" bedeutet. Die Idee, etwas könne nur dann zur "Kognitionswissenschaft" beitragen, wenn es in der Terminologie der "mentalen Repräsentationen" dargestellt wird (und wenn dies Repräsentationen "kalkülmäßig" beschrieben werden), ist lediglich ein weiteres Beispiel für diese beklagenswerte Tendenz. [ . . . ] Mir scheint, daß wir die Forderung aufgeben müssen, alle Begriffe, die wir ernst nehmen, müßten sich auf das Vokabular und den Begriff sapparat der exakten Wissenschaften zurückführen lassen. Nach meiner Überzeugung ist es nicht die Intentionalität selbst, die in Schwierigkeiten steckt, sondern der Reduktionismus".

Vielleicht muß man – wie der Professor für Moderne Mathematik und Mathematische Logik an der Harvard Universität – wirklich erst die Leiter hinaufsteigen, bevor man sie wegwerfen kann (und barfuß gehen schickt sich nur für die, die Schuhe haben): "Daß die Rationalität durch ein ideales Computerprogramm definiert wird, ist eine szientistische Theorie, die von den exakten Wissenschaften inspiriert ist; [ . . . ] Ich bestreite nicht, daß die Logik wichtig ist oder daß formale Untersuchungen der Bestätigungstheorie, der Semantik natürlicher Sprachen usw. wichtig sind. Ich neige jedoch zu der Auffassung, daß sie eher Randgebiete der Philosophie" und ein Versuch sind, "dem wirklichen Problem aus dem Weg zu gehen: eine verständige und menschliche Beschreibung der Reichweite der Vernunft zu geben." 

Auch Terry Winograd – ein Star der KI-Szene, sein in einer virtuellen "Mikrowelt" von geometrischen Körpern operierendes Programm SHRDLU galt als lang ersehnter Durchbruch beim Problem des Sprachverstehens – hat eine radikale Wandlung vollzogen und sich von der "rationalistischen Tradition", in der er mit seinen eigenen Arbeiten stand, losgesagt:

"Der rationalistische Zugang zum Problem der Bedeutung, der Systemen wie SHRDLU anhaftet, gründet auf der Voraussetzung, daß sich die Bedeutung von Worten und der damit gebildeten Sätze und Redewendungen unabhängig von der situationsabhängigen und je individuellen Interpretation ermitteln lassen. [ . . . ] Hintergrundbezug und Interpretation durchziehen unser gesamtes Alltagsleben. Jede Bedeutung leitet sich ab aus einer in einer Situation wurzelnden Interpretation".

Auf die Bedeutung des situativen Kontextes und des "Immer-schon-in-der-Welt-sein" für das Verstehen und Handeln sowie auf die Schwierigkeiten seiner formalen Beschreibung als von der KI unzulässigerweise ignoriertes Problem hat mit Nachdruck immer wieder Hubert L. Dreyfus auf Grund seiner Kenntnis der europäischen Sprachphilosophie und Phänomenologie hingewiesen. 

Nun folgt Winograd seinen Ratschlägen, rezipiert Heidegger und zitiert mit den einleitenden Sätzen 

"Das Wesen unseres Seins ist durch kulturellen Hintergrund festgelegt; und da dieser bereits durch die Art und Weise unserer Spracherfahrung und unseres Lebens in der Sprache selbst geprägt ist, kann er nicht vollständig in dieser Sprache erklärt werden" 

den modernen Klassiker der Hermeneutik, Hans-Georg Gadamer:

"Die Gewinnung des Bewußtseins einer Situation ist aber in jedem Falle eine Aufgabe von einiger Schwierigkeit. Der Begriff der Situation ist ja dadurch charakterisiert, daß man sich nicht ihr gegenüber befindet und daher kein gegenständliches Wissen von ihr haben kann. Man steht in ihr, findet sich immer schon in einer Situation vor, deren Erhellung die nie ganz zu vollendende Aufgabe ist".

In der Tat: "Die Welt gibt es nur als Idee der Einheit aller Folgen von Situationen und niemals als ,fertigen‘ Gegenstand" und die Selbstbestimmung der Menschen" ist der großangelegte Versuch, die Folge von Situationen, also die Handlungs- und Redezusammenhänge der Menschen über Orte und Zeiten hinweg in eine zusammenhängende Situation, die Welt, zu verwandeln, was natürlich selbst nur als offener Prozeß mit zahllosen Verzweigungen"  möglich ist. 

Dagegen ist der von der Vorstellung der "Welt als der Gesamtheit der Tatsachen im logischen Raum" des frühen Wittgenstein inspirierte Versuch, Denken, Intentionalität und Verstehen, umfassendes Wissen (knowing that) und Können (knowing how) in einer Art Momentaufnahme, als "Modellierung von Weltausschnitten", von diesen Handlungs- und Redezusammenhängen abzulösen (so wie Frege und Russell – nach dem Vorbild einer "platonisch", als "ewige Wahrheiten" verstandenen Mathematik – eine formale, kontextbefreite Logik entwickelten) und in die Zeilen eines Computerprogramms zu gießen, ein sehr heroisches oder ein sehr naives Unternehmen. 

Theoretische Lücken, ausbleibende Erfolge, ein degenerierendes Forschungsprogramm, das Aufgeben von Jugendträumen zugunsten einer reiferen Sicht mit Blick auch auf andere, vorher ignorierte philosophische Traditionen: also bei der Frage "Können Computer denken?" ein Sieg der "Humanisten" über die "Reduktionisten"? Ja, ich glaube schon; zwar kein K. O., aber einer nach Punkten, vielleicht nur ein Etappensieg. 

Aber ich bin mit dieser Antwort nicht ganz zufrieden. Sowenig ich dafür plädiere, unkritisch und ohne Widerspruch die Ansprüche und das Menschenbild der KI sich selbst zu überlassen, sowenig möchte ich die KI "entlarven" und ein bequemes "Na also, ich habe es ja immer gewußt" stützen. 

Ich glaube nicht, daß es mit dem Ansatz der physikalischen Symbolsysteme gelingen wird, Computerprogramme oder Roboter zu entwickeln, die unseren Denk- und Intelligenzleistungen nahe kommen, und ich glaube auch, daß die neuerdings wieder propagierten subsymbolischen, konnektionistischen Ansätze – neuronale Netze, massive Parallelverarbeitung – nur bei Problemen Erfolg haben werden, die im weitesten Sinne Mustererkennung erfordern. 

Aber die Beschäftigung mit der KI ist dennoch nicht einfach nur eine gefährliche Zeit- und Ressourcenverschwendung, nicht nur eine aufwendige Sackgasse (eher schon die Windung auf einem Wendel). Ich denke, daß die KI auch den Anlaß und die Chance bietet, über vieles neu nachzudenken, unser Selbstverständnis, unsere Vorstellung vom "guten Leben" und unser Konzept von Rationalität zu überprüfen (dazu gehören nicht nur Antworten darauf, ob intelligente Maschinen möglich sind, sondern auch darauf, ob und zu welchen Zwecken wir solche Maschinen wollen). 

Das Aufspüren der ideengeschichtlichen Wurzeln der KI, die Reflexion über ihre Vorhaben und Resultate (z. B. daß so hoch geschätzte geistige Fähigkeiten wie Schachspielen oder das Lösen von Differentialgleichungen viel leichter durch Computer realisiert werden können als das visuelle Wahrnehmungssystem einer Katze oder das Sprachvermögen eines sechsjährigen Kindes) samt der gesellschaftlichen und kulturellen Veränderungen, und auch Gedankenexperimente wie der Turing-Test und das Chinesisch- Zimmer, bereichern dabei den philosophischen und den interdisziplinären Diskurs. 

Die KI kann hier auch von der Philosophie lernen, wie umgekehrt auch Erfolge und Mißerfolge der KI als "empirische Tests" philosophischer Thesen gelten können.

Die "starke KI" sagt, daß auch wir Computer sind (und wer das leugnet, denkt vorwissenschaftlich). Wir "Humanisten" lehnen das natürlich ab. Warum? Weil wir evidentermaßen anders sind als Computer: wir sind nicht "mechanisch", wir haben einen freien Willen, setzen uns Zwecke und übernehmen Verantwortung, wir sind kreativ, haben Üerzeugungen, Wünsche und Emotionen. Wenn das "Computermodell des Geistes" Recht hat, wird dies alles durch eine "Idiotenarmee" erledigt, durch ein komplexes Ensemble von im einzelnen ausgesprochen anspruchslosen Prozessen, zu denen wir introspektiv keinen Zugang haben. Was ist eigentlich so schrecklich an dieser Vorstellung, was wäre so schlimm daran, wenn sich herausstellen würde, daß Wahrnehmungen, Schlußfolgerungen, das Erfinden einer neuen Melodie, das bewußte Ablehnen einer Zigarette und anderes, auf das wir so stolz sind, auf diese Weise erfolgt? 

Wir haben uns an den Gedanken einer engen naturgeschichtlichen Verwandtschaft mit den Tieren gewöhnt und daran, daß unserem Denken physiologische Prozesse zugrundeliegen; einige "Humanisten" sind ausgesprochen verliebt in den Gedanken, daß wir eine durch frühkindliche Traumata mehr oder weniger deformierte Hydraulikanlage zum Ausgleich von Eros und Thanatos sind; wir haben uns daran gewöhnt, bei verhältnismäßig einfachen Rechnungen mehr einem Gerät für zwanzig Mark als unserer langjährigen Schulbildung zu vertrauen (und jene, die das als Kulturverlust beklagen, lassen sich von ihren Kindern zeigen, wie man ein modernes Autoradio bedient); und dennoch streiten wir mit Recht und dessen ungeachtet darüber, ob eine neue Asylregelung die Menschenwürde verletzt und gegen den Geist des Grundgesetzes verstößt. 

Wie gesagt, was genau ist so schlimm an dieser Vorstellung? Auf der anderen Seite sehen wir Menschen, die jahrelang mit Menschen und an Computern gearbeitet haben, Kognitions- und Intelligenzprozesse erforschen und im vollen Ernst vorschlagen, die Entscheidung, ob eine Interkontinentalrakete mit atomaren Mehrfachsprengköpfen abgefeuert werden soll, einem Computersystem zu übertragen, weil der Mensch zu langsam und zu fehlbar, zu emotional und zu unberechenbar, also der schlechtere Computer sei. 

Wie kommt es zu diesem tiefgreifenden Aneinandervorbeireden, zu der Vorstellung einerseits, daß unser Verständnis von Freiheit und Würde die Aufklärung mentaler Prozesse in dieser Richtung von vornherein verbietet, und zu der Vorstellung andererseits, daß das Abweichen von selbst gesetzten formalen Standards unser Abtreten zugunsten von Maschinen gebietet? 

Wie kommt es zu dieser heillosen Verwirrung von Erklärung und Rechtfertigung und warum spielt gerade der Computer, ein Gerät, an dem ich diese Zeilen schreibe und das dafür sehr nützlich ist, dabei eine so große Rolle? 

Die eingangs genannten zwei Fraktionen haben eine je eigene Sichtweise mit jeweils gewisser Plausibilität (und je eigenen blinden Flecken). 

Für die einen ist der Mensch, auch seine Kultur und Technik, Produkt und Teil der Natur. Das Denken (als Hirntätigkeit und objektives Verhalten) ist wohl komplexer, aber nicht grundsätzlich anders als andere Naturvorgänge, es hat nichts Magisches oder Geheimnisvolles, sondern läßt sich mit (natur-) wissenschaftlichen Mitteln erforschen und erklären (und was ich verstanden habe, kann ich auch nachbauen). 

Für die anderen sind die Gesetze und Theorien der Naturwissenschaften kulturelle Leistungen, sprachlich vermittelt und abhängig von unseren Zwecken und Möglichkeiten, "Natur" also ein Teilbereich der menschlichen Kultur und Technik; und Computer gibt es entsprechend nur deshalb, weil es Nutzer, Konstrukteure und Programmierer gibt, sie sind das Mittelstück und Medium eines Prozesses, der beim Menschen beginnt und wieder endet. Somit wäre es einfach absurd, ihnen eine "eigene" Denkfähigkeit zuzuschreiben. 

Ich denke, daß beide Seiten, wir alle, noch nicht wirklich verstanden haben, worum es hier geht. 

Um nocheinmal ganz von vorne anzufangen: 

  • Descartes hat die Menschen vom Rest der Welt, von den Tieren, Pflanzen und Dingen, durch das Innen und Außen von Bewußtsein, durch zwei völlig verschiedene Substanzen geschieden. 

  • Bacon hat die Naturbetrachtung für gänzlich unfruchtbar erklärt, wenn sie nicht demWohl der Menschen dient, und diese Macht und Herrschaft über die Natur sei nur möglich, wenn man ihre Gesetze erforscht und sich ihnen unterwirft. 

  • Kant hat gesagt, daß die Moral, als Reich der Freiheit, dort beginnt, wo die Natur, als Reich der Notwendigkeit, aufhört. 

Wir Menschen haben lange mit dieser strikten Trennung in Subjekt und Objekt, in Geist und Materie, in Kultur und Natur, in Kunst und Mechanik, in Ethik und Wissenschaft, in Gründe und Zwecke und in Ursachen und Wirkungen, in Verstehen und Erklären, in Intentionalität und Kausalität, in Handeln und Verhalten, gut gelebt.

Aber seit einiger Zeit beginnen die Ränder und Grenzen zu zerfransen, die scharfen Trennungslinien zu verschwimmen. Die Aufklärung hat uns die Gewißheit unserer Verantwortung, die Menschenrechte und den Abbau der Furcht vor den unheimlichen Kräften der Natur gebracht. 

Aber, auch das gehört zur Dialektik der Aufklärung, die zur Naturbeherrschung entwickelten Mittel – Mathematik, Naturwissenschaften, Logik – lassen sich auch auf den Menschen anwenden, die häufig szientistisch verkürzte, instrumentelle Vernunft sieht zunehmend weniger Grund, sich an die von Descartes, Bacon und Kant gezogenen Grenzen zu halten. 

Auch hat uns die Aufklärung nicht davor bewahrt, in vielen Bereichen – z. B. bei der Fließbandarbeit – selbst immer methodischer, regulierter und "maschinenhafter" zu werden. 

Schließlich werden auch die Grenzen zwischen den "Zwei Kulturen" der Natur und Geisteswissenschaften immer durchlässiger: von der Evolution bis zur Synergetik, von der Quantentheorie bis zur Autopoiese, werden Begriffe und Konzepte aus dem einen Bereich in den anderen übernommen und häufig auch wieder, empirisch und begrifflich angereichert, zurückgegeben. 

Prominentestes und epochentypisches Beispiel für diese Entwicklung ist allerdings der Computer als zur Zeit vielversprechendstes Mittel zur Naturbeherrschung und zur Verwaltung der Menschen. 

Der programmierbare Computer ist eine Universalmaschine, aber nicht wirklich "mechanisch" (jedenfalls nicht in der Hinsicht, die ihn für uns interessant macht). Hier geht es nicht um Kategorien wie Kraft, Druck oder Impuls, es geht um Symbolmanipulation, verarbeitet und erzeugt wird Information (und keiner weiß genau, was dieser "Sto " – weder Materie noch Energie, wie Norbert Wiener sagte – eigentlich ist: "eine Art modernen Phlogistons"?), diese Maschine liegt quer zu den vertrauten Dualismen von Geist und Körper und von Form und Inhalt. 

Durch diese Verobjektivierung des Subjektiven, durch die maschinelle Realisierung mentaler Prozesse, ist eine neue Herausforderung für die Selbstbesinnung darüber entstanden, was den Menschen zum Menschen macht. 

Der Versuch, intelligente Maschinen zu entwickeln, zwingt zum genauen Nachdenken über den Unterschied von Daten, Information, Wissen und Sinn, von Syntax, Semantik, Pragmatik, vom Folgen, Finden,Wählen, Ignorieren, Erfinden einer Regel, von Verstand, Urteilskraft, Vernunft, zum genauen Nachdenken über die Rolle und Bedeutung unseres biologischen und kulturellen Erbes, der Sprachgemeinschaft und der Lebenspraxis. (...)

Intentionalität und Verstehen, Denken, Bewußtsein, Rationalität und Willensfreiheit, Sinn, Bedeutung undWahrheit sind genuin philosophische Themen. Aber, auch hier gilt der Satz von Kant, 

"Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe blind". 

Ein unverkrampfter, interessierter, aber auch kritischer Blick auf die empirischen Wissenschaften, die sich mit diesen Themen beschäftigen, dient – wie schon bei Kopernikus, Darwin und Freud – auch den philosophischen Interessen und der Selbstaufklärung der Menschen. 

Searles Gedankenexperiment vom "Chinesisch-Zimmer" aus der Innenperspektive des Turing-Tests lenkt die Aufmerksamkeit auf die ursprüngliche Intentionalität und damit auf das Sprachverstehen, das Erfassen der Bedeutung sprachlicher Ausdrücke als wesentlichen Prüfstein für die Frage, ob Computer denken können. 

Mit dem Sprachverstehen beim Menschen befassen sich neben der Philosophie und KI z. B. auch die Linguistik und Psychologie, also Wissenschaften mit ganz unterschiedlichen Ansätzen und Methoden, Fachsichten und Grenzen. 

Das Projekt des maschinellen Sprachverstehens erfordert die strikte Formalisierung wesentlicher Teile der Semantik – und die interdisziplinäre Zusammenschau und -arbeit der genannten Disziplinen.

Lust auf mehr....


Home      Inhaltsverzeichnis Elektrotechnik     Zurück