Können Computer denken?
Von Reinhard Golecki
"Können – zumindest
prinzipiell und irgendwann – Maschinen denken?"
Zur Beantwortung dieser Frage, darauf
hat Alan Turing schon vor mehr als
vierzig Jahren hingewiesen, ist eine genauere Bestimmung der Begriffe
"Denken" und "Maschine" nötig.
Um mit letzterem anzufangen: A. Turing ging bei seiner Prognose von
Digitalcomputern aus. Zwar lassen sich auch andere Architekturen (massive
Parallelverarbeitung, Neuronale Netze) äquivalent auf
Von-Neumann-Rechnern nachbilden, aber nicht unbedingt auch deren
Geschwindigkeit.
Wenn es stimmt, daß das Gehirn –
mit seinen schätzungsweise 1011 Neuronen mit
im Durchschnitt je mehr als 1000 Verbindungen zu anderen Neuronen (die
Zahl der möglichen Kombinationen übertrifft die Anzahl der Atome im
bekannten Universum) – ca. 1015 Operationen pro Sekunde ausführt,
so übertrifft das die Leistungsfähigkeit der gegenwärtig vorhandenen
Rechner mit massiver Parallelverarbeitung um mehrere Zehnerpotenzen.
Auch wenn sich die Technik wie bisher
rasant weiterentwickelt, stößt man hier möglicherweise auf Grenzen, die
sich mit der vorhandenen und absehbaren Technik (z. B. optische statt
elektronische Systeme) nicht überwinden lassen.
Die Arbeitsweise von Neuronen auf
subzellulärer Ebene, ihre Biochemie und ihr Zusammenspiel mit anderen
organischen Substanzen wie Enzymen ist (wie insgesamt die Arbeitsweise des
Gehirns) wenig geklärt. Es kann sich herausstellen, daß die Leistung
(Arbeit pro Zeit) des Gehirns tatsächlich organische, molekulare
Substanzen und Prozesse erfordert und daß diese Leistung mit
vertretbarem Aufwand vielleicht nur auf die durch die Evolution
entwickelte Weise zu haben ist.
Sind Systeme, die auf dieser Basis
arbeiten, dann noch "Maschinen"? Noch größere Probleme hat man
mit dem "Denken", mit der Frage danach, was genau man denn
eigentlich von Computern erwartet, um ihnen diese Fähigkeit zuzusprechen.
Freud sah beispielsweise im Denken
eine "Aufhaltung der motorischen Abfuhr (des Handelns)", ein
inneres "Probehandeln", das sich "aus dem Vorstellen
herausbildete" und darüber "erhob und sich den Relationen der
Objekteindrücke zuwendete"; es "war wahrscheinlich ursprünglich
unbewußt, . . . und erhielt weitere für das Bewußtsein wahrnehmbare
Qualitäten erst durch die Bindung an die Wortreste."
Für Descartes
war dagegen Denken noch untrennbar mit Bewußtsein verbunden. Unter Denken
verstand er "alles, was derart in uns geschieht, daß wir uns seiner
unmittelbar aus uns selbst bewußt sind", und alle Bewußtseinsarten
führte er auf den Verstand einerseits und den Willen andererseits zurück.
Auch für Locke
war das Bewußtsein zentral, und zwar als fortlaufende Identität eines
Ichs, die es erst ermöglicht, von einer vernunftbegabten und
verantwortungsvollen Person zu sprechen.
Ähnlich mußte für Kant das "Ich denke" alle
"Vorstellungen begleiten können; "das Denken war für ihn, als
Vermögen des Verstandes, die "Handlung, die Synthesis des
Mannigfaltigen", welches durch die Anschauung gegeben wird, "zur
Einheit der Apperzeption zu bringen". Darüber stand für ihn die
Vernunft, eine Fähigkeit die letztlich "aufs Moralische
gestellt" ist. Weiter wird seit Kant
bei Denkprozessen (als Operationen mit Vorstellungen) deutlicher und in
methodischer Absicht zwischen Begriffsbildung, Urteilen und Schließen
unterschieden.
Mit der Entwicklung der formalen
Logik durch Frege und andere wurden
diese Operationen objektiviert, vom Bewußtsein und den subjektiven
Vorstellungen abgelöst; Gedanken werden in diesem Verständnis durch
Denken nicht erzeugt, sondern gefaßt. Damit rückte beim Nachdenken über
das Denken immer mehr die Sprache in den Mittelpunkt des Interesses, zunächst
als Konzept einer idealen Sprache (für den frühen Wittgenstein
war Denken ein Abbilden der logischen Form der Welt in Zeichen), dann die
ganz unterschiedlichen "Sprachspiele" der Alltagssprache mit
ihren vielfältigen pragmatischen und sozialen Kontexten. Auch wenn der
genaue Zusammenhang von Denken und Sprechen (nach Platon
sind Denken und Rede dasselbe, Denken ist "das innere
Gespräch der Seele mit sich selbst") bis heute strittig ist, gibt es
kaum einen Zweifel daran, daß Sprache das wichtigste Medium des Denkens
und Sprachverstehen die zentrale, spezifisch menschliche kognitive
Leistung ist.
Mit dieser Wende zur Sprache rückte
Intentionalität in das Zentrum der Diskussion: Das Denken handelt von
etwas, es hat Bedeutung, es ist auf etwas gerichtet (da sich das Denken
aber nicht nur auf äußere Gegenstände und Sachverhalte richten kann,
sondern auch auf sich selbst, wird man damit allerdings die Probleme von
Subjektivität und Bewußtsein nicht los).
Versucht man eine Zusammenfassung, so
könnte man sagen: Denken ist ein in der Regel bewußter, subjektiv gefärbter
und durch das Erleben eines Ichs begleiteter geistiger Vorgang, der sich
in theoretischer und praktischer Absicht (z. B. zur Vorbereitung von
Handlungen, wenn instinktives oder erlerntes Verhalten nicht ausreicht)
auf äußere und innere Sachverhalte richtet und sich dabei sozial und
kulturell vermittelter Zeichensysteme bedient.
Werden in der Philosophie eher die
Grundprinzipien und Grenzen des Denkens thematisiert, untersucht die
Psychologie – im Anschluß an die Assoziationstheorie Humes – die "Mechanik", die
"Funktionsweise" des Denkens. Die Ich-Perspektive der Bewußtseinsphilosophie
wird durch die Beobachterperspektive ersetzt, Denken wird als
"objektives Verhalten" untersucht (vorzugsweise als
"Problemlösen"). Nach der Assoziationstheorie, der
Gestaltpsychologie und der "Eliminierung" des Mentalen durch den
Behaviorismus stehen nun Ansätze im Vordergrund, die sich am Paradigma
der Informationsverarbeitung orientieren, z. B. als weitgehend unbewußte,
regelgeleitete Manipulation "Mentaler Modelle" als interne Repräsentationen
der Welt.
Insgesamt hat sich dabei das
Interesse weg vom recht unscharfen Begriff des Denkens hin zu dem der
Intelligenz (als hinter dem Vollzug des Denkens angenommene, allgemeine Fähigkeit)
einerseits und enger umgrenzten einzelnen Leistungen und Fähigkeiten wie
Wahrnehmen, Erinnern, Lernen, Schlußfolgern und Sprachgebrauch
andererseits verlagert, und als Oberbegriff für diese psychischen
Prozesse hat sich der Begriff der Kognition durchgesetzt.
Die meisten Kognitionspsychologen
verstehen sich mittlerweile als Teilnehmer einer Cognitive science, die
sich als am "Computermodell des Geistes" orientierte
Zusammenarbeit mit Linguisten, Informatikern und Neurobiologen etabliert
hat und der sich auch viele KI-ler zugehörig fühlen (auch immer mehr
Philosophen – insbesondere die, die nach dem Linguistic turn nun den
Naturalistic turn propagieren – fühlen sich von der Verheißung
(natur-)wissenschaftlicher Erklärungen für die Rätsel des Geistes
angezogen).
Durch diese Entwicklung werden zwei
Trends unterstützt, die das im letzten Absatz vorgestellte, aus der
philosophischen Tradition stammende Verständnis vom Denken verändern.
Wenn Denken als "objektives Verhalten" verstanden und in erster
Linie im Hinblick auf die erbrachte Leistung untersucht (und vom Bewußtsein
abgekoppelt) wird, verändert sich erstens auch der Sprachgebrauch. Der
Ausdruck "Denken" wird dann – wie schon bei
"Fliegen" oder "Schwimmen" – auch auf Artefakte übertragen,
die möglicherweise auf andere Art, aber im Ergebnis dasselbe leisten. War
zweitens der von Descartes, Locke und Kant
entwickelte Begriff des Geistes noch "gekennzeichnet durch die
Synthese von intellektuellem und moralischem Tun", erleben wir nun
zunehmend eine "Dissoziation von kognitiven und moralischen
Kompetenzen, von Intellekt und Urteilskraft."
Eine klare Antwort auf die zu Beginn
dieses Abschnitts gestellte Frage wird von Seiten des Funktionalismus, des
"Computermodell des Geistes", der "starken KI"
gegeben: Ja!
Entsprechend programmierte
Digitalcomputer können deshalb im Wortsinne denken, weil wir selbst in
einem relevanten Sinne solche Computer sind.
Gegenüber der über dreihundert
Jahre alten These "Denken ist Rechnen" von Hobbes
kann die zeitgenössische These "Denken ist Komputieren" auf
ihrer Habenseite verbuchen:
-
Das in der Bewußtseinsphilosophie
in der Nachfolge von Descartes über
Locke und Hume
bis Kant entstandene Konzept, daß
Denken das regelgeleitete Operieren mit mentalen Repräsentationen der
Außenwelt, mit "Ideen" oder "Vorstellungen", sei.
-
Das von Leibniz
entworfene, von Frege, Russell, Wittgenstein
und Carnap ausgebaute Konzept
einer eindeutigen, kontextfreien, idealen Sprache als exaktes Abbild
der Welt, als rationale Nachkonstruktion der gesamten Erkenntnis der
Wirklichkeit, als narrensichere Methode, als "symbolische
Maschine" zum Erfinden und Prüfen durch bloß formale,
syntaktische Transformationsregeln, die automatisch der intendierten
Semantik Rechnung tragen (wobei Sinn und Bedeutung komplexer Symbole
ausschließlich eine Funktion der elementaren Symbole und ihrer
Kombination sind).
-
Turings
These, daß jedes nicht willkürliche, regelgeleitete Verhalten
ergebnisgleich durch Input, Maschinentafel und Output einer
Turingmaschine beschrieben und simuliert werden kann, und sein
Nachweis, daß dafür eine universelle Maschine genügt (und äquivalent
damit auch jeder uns vertraute, programmierbare Computer vom
Von-Neumann-Typ).
Die Computer-Philosophie des Denkens,
mit ihrer These, daß Computer gleichsam per definitionem denken können,
teils Ergebnis der Reflexion über die KI, teils deren theoretische Basis,
vereint somit zwei traditionelle Stränge der abendländischen Philosophie
mit der Erfindung der informationsverarbeitenden Universalmaschine zu
einer komputationalen Theorie des Geistes, nach der Denkprozesse formale
Operationen über eine unsere Überzeugungen über die Außenwelt
symbolisch repräsentierenden, biologisch-physikalisch wie eine
Maschinensprache realisierten "Sprache des Geistes" sind.
Ironischerweise wird damit das
Programm einer formalen Logik und einer idealen Sprache, mit dem sich Frege ausdrücklich gegen eine
psychologische Begründung der Logik und des Denkens wandte, zu einem
Fundament der Psychologie, und Sybille Krämer weist
mit Recht darauf hin, daß hier eine Kulturtechnik (nämlich Rechnen als
symbolisches Operieren) als Vorbild für eine empirische These über einen
biologischen Vorgang dient).
Mit der von Putnam
vorgeschlagenen Unterscheidung einer physikalisch-strukturellen und einer
logisch-funktionalen Ebene bei der Beschreibung dieser Prozesse will man
dabei sowohl den einheitswissenschaftlichen Reduktionismus als auch die
Schwächen früherer repräsentationaler Theorien des Geistes vermeiden,
den "Vorhang der Ideen" zerreißen, den "Ungeist des
Homunkulus" und das von Ryle
verspottete "Gespenst in der Maschine" vertreiben (und manche möchten
dann auch noch Begriffe wie "Selbst", "Wissen",
"Bedeutung" und "Verstehen" – "prescientific
idea germs" wie Minsky gerne sagt
– "weganalysieren"). Dadurch wird Denken unabhängig von der
durch die Evolution hervorgebrachten spezifisch menschlichen Lösung:
Geist verhält sich zum Gehirn wie das Programm zur Hardware.
Das "Computermodell des
Geistes" hat, wie angedeutet, entscheidende Schwächen und Lücken:
eine befriedigende Erklärung der Semantik und Pragmatik der "Sprache
des Geistes", der Verbindungen zur Außenwelt und zu anderen
Menschen, von Intentionalität und Verstehen, von der Erfahrung des Bewußtseins
und des Ichs, von der Realisierung der funktionalen Zustände durch
neurophysiologische Prozesse, ist nicht in Sicht; aber dieser Einwand ist
nicht ganz fair, konkurrierende Theorien stehen hierbei nicht besser da.
Aus der Sicht der KI ist dieses
"Paradigma der Kognitionswissenschaft" kein Glaubenssatz,
sondern eine empirisch überprüfbare These (wie wir aus den Bemühungen
der Wissenschaftstheorie wissen, ist ein solcher Trennstrich allerdings
kaum zu ziehen). Auch wenn nicht ganz klar ist, auf Grund welcher
empirischer Ergebnisse die Vertreter dieser Theorie bereit sind, sie als
gescheitert anzusehen, haben empirische Befunde somit sicher einige
Bedeutung.
1. Die großen Versprechungen der
Anfangszeit haben sich nicht erfüllt. Zwar gibt es gewisse Erfolge bei
jeweils einzelnen kognitiven Leistungen, aber der große Durchbruch, die
Entwicklung von Computerprogrammen oder Robotern mit einem wirklich
umfassenden Denkvermögen, wurde nicht erreicht und ist auch nicht in
Sicht.
Sprachverstehen, Repräsentation von
und Umgang mit Alltagswissen, maschinelles Lernen sind weitgehend ungelöst,
und wie die Überlegungen zum Turing-Test und zu CUGAF zeigen, sind Lösungen
nur zu erwarten, wenn die Systeme durch Sensoren und Effektoren
"eigene" Erfahrungen mit der Wirklichkeit machen können.
Dabei werden jeweils entscheidende
Fortschritte in den genannten Teilbereichen erst erwartet, wenn die
Probleme der anderen Bereiche gelöst sind. Die einst optimistische und
vom Paradigma (im Sinne Kuhns) der
"Hypothese der physikalischen Symbolsysteme" inspirierte
Forschergemeinde, die "Good Old Fashioned Artificial
Intelligence" (John Haugeland),
zerfällt in zunehmend unübersichtliche Teilgruppen und
Forschungsbereiche mit jeweils eigenen Themen und spezifischen, häufig ad
hoc gewählten Lösungsansätzen.
Innerhalb der KI sinkt der Stern des
"Computermodells des Geistes" zugunsten eines
"Gehirnmodells des Computers" (dabei ist wieder, wie schon bei
der Metapher "Elekronenhirn" in den 50er Jahren, der Mensch das
Vorbild; auch das ist ein Abrücken vom ursprünglichen, nämlich
symbolverarbeitenden Ansatz). Kurz: die "starke KI" zeigt
deutliche Anzeichen eines degenerierenden Forschungsprogramms (im Sinne
von Lakatos).
2. Auch das ist ein empirischer
Befund: Bedeutende Philosophen (und einige Theoretiker und Praktiker der
KI und der Kognitionswissenschaft), die zu dieser Sicht entscheidend
beigetragen haben, indem sie, meist mit "jugendlichem" Elan, den
Versuch unternahmen, das Denken mit formalen Mitteln einzufangen, haben
sich davon später selbst distanziert. Gewisse Revisionen im Werk von Russell und Carnap
wurden oben schon angedeutet, besonders illustrativ allerdings – neben
dem bekannten Umschwung bei Wittgenstein
– ist die Entwicklung von Hilary Putnam,
einem der Väter des funktionalistischen Gedankens:
"Wir alle haben mitbekommen, wie
eine Wissenschaft von der Gesellschaft oder vom Menschen nach der
anderen – Psychologie, Soziologie und Ökonomie – unter den Einfluß
dieser oder jener Modemasche geraten ist. In den Vereinigten Staaten
waren solche Maschen besonders häufig das Ergebnis einer
reduktionistischen Vorstellung dessen, was
"Wissenschaftlichkeit" bedeutet. Die Idee, etwas könne nur
dann zur "Kognitionswissenschaft" beitragen, wenn es in der
Terminologie der "mentalen Repräsentationen" dargestellt wird
(und wenn dies Repräsentationen "kalkülmäßig" beschrieben
werden), ist lediglich ein weiteres Beispiel für diese beklagenswerte
Tendenz. [ . . . ] Mir scheint, daß wir die Forderung aufgeben müssen,
alle Begriffe, die wir ernst nehmen, müßten sich auf das Vokabular und
den Begriff sapparat der exakten Wissenschaften zurückführen lassen.
Nach meiner Überzeugung ist es nicht die Intentionalität selbst, die
in Schwierigkeiten steckt, sondern der Reduktionismus".
Vielleicht muß man – wie der
Professor für Moderne Mathematik und Mathematische Logik an der Harvard
Universität – wirklich erst die Leiter hinaufsteigen, bevor man sie
wegwerfen kann (und barfuß gehen schickt sich nur für die, die Schuhe
haben): "Daß die Rationalität durch ein ideales Computerprogramm
definiert wird, ist eine szientistische Theorie, die von den exakten
Wissenschaften inspiriert ist; [ . . . ] Ich bestreite nicht, daß die
Logik wichtig ist oder daß formale Untersuchungen der Bestätigungstheorie,
der Semantik natürlicher Sprachen usw. wichtig sind. Ich neige jedoch zu
der Auffassung, daß sie eher Randgebiete der Philosophie" und ein
Versuch sind, "dem wirklichen Problem aus dem Weg zu gehen: eine
verständige und menschliche Beschreibung der Reichweite der Vernunft zu
geben."
Auch Terry
Winograd – ein Star der KI-Szene, sein in einer virtuellen
"Mikrowelt" von geometrischen Körpern operierendes Programm
SHRDLU galt als lang ersehnter Durchbruch beim Problem des
Sprachverstehens – hat eine radikale Wandlung vollzogen und sich von der
"rationalistischen Tradition", in der er mit seinen eigenen
Arbeiten stand, losgesagt:
"Der rationalistische Zugang zum
Problem der Bedeutung, der Systemen wie SHRDLU anhaftet, gründet auf
der Voraussetzung, daß sich die Bedeutung von Worten und der damit
gebildeten Sätze und Redewendungen unabhängig von der situationsabhängigen
und je individuellen Interpretation ermitteln lassen. [ . . . ]
Hintergrundbezug und Interpretation durchziehen unser gesamtes
Alltagsleben. Jede Bedeutung leitet sich ab aus einer in einer Situation
wurzelnden Interpretation".
Auf die Bedeutung des situativen
Kontextes und des "Immer-schon-in-der-Welt-sein" für das
Verstehen und Handeln sowie auf die Schwierigkeiten seiner formalen
Beschreibung als von der KI unzulässigerweise ignoriertes Problem hat mit
Nachdruck immer wieder Hubert L. Dreyfus
auf Grund seiner Kenntnis der europäischen Sprachphilosophie und Phänomenologie
hingewiesen.
Nun folgt Winograd
seinen Ratschlägen, rezipiert Heidegger
und zitiert mit den einleitenden Sätzen
"Das Wesen unseres Seins ist durch
kulturellen Hintergrund festgelegt; und da dieser bereits durch die Art
und Weise unserer Spracherfahrung und unseres Lebens in der Sprache
selbst geprägt ist, kann er nicht vollständig in dieser Sprache erklärt
werden"
den modernen Klassiker der Hermeneutik, Hans-Georg Gadamer:
"Die Gewinnung des Bewußtseins
einer Situation ist aber in jedem Falle eine Aufgabe von einiger
Schwierigkeit. Der Begriff der Situation ist ja dadurch charakterisiert,
daß man sich nicht ihr gegenüber befindet und daher kein gegenständliches
Wissen von ihr haben kann. Man steht in ihr, findet sich immer schon in
einer Situation vor, deren Erhellung die nie ganz zu vollendende Aufgabe
ist".
In der Tat: "Die Welt gibt es
nur als Idee der Einheit aller Folgen von Situationen und niemals als
,fertigen‘ Gegenstand" und die Selbstbestimmung der Menschen"
ist der großangelegte Versuch, die Folge von Situationen, also die
Handlungs- und Redezusammenhänge der Menschen über Orte und Zeiten
hinweg in eine zusammenhängende Situation, die Welt, zu verwandeln, was
natürlich selbst nur als offener Prozeß mit zahllosen
Verzweigungen" möglich ist.
Dagegen ist der von der Vorstellung
der "Welt als der Gesamtheit der Tatsachen im logischen Raum"
des frühen Wittgenstein inspirierte
Versuch, Denken, Intentionalität und Verstehen, umfassendes Wissen
(knowing that) und Können (knowing how) in einer Art Momentaufnahme, als
"Modellierung von Weltausschnitten", von diesen Handlungs- und
Redezusammenhängen abzulösen (so wie Frege
und Russell – nach dem Vorbild einer
"platonisch", als "ewige Wahrheiten" verstandenen
Mathematik – eine formale, kontextbefreite Logik entwickelten) und in
die Zeilen eines Computerprogramms zu gießen, ein sehr heroisches oder
ein sehr naives Unternehmen.
Theoretische Lücken, ausbleibende
Erfolge, ein degenerierendes Forschungsprogramm, das Aufgeben von Jugendträumen
zugunsten einer reiferen Sicht mit Blick auch auf andere, vorher
ignorierte philosophische Traditionen: also bei der Frage "Können
Computer denken?" ein Sieg der "Humanisten" über die
"Reduktionisten"? Ja, ich glaube schon; zwar kein K. O., aber
einer nach Punkten, vielleicht nur ein Etappensieg.
Aber ich bin mit dieser Antwort nicht
ganz zufrieden. Sowenig ich dafür plädiere, unkritisch und ohne
Widerspruch die Ansprüche und das Menschenbild der KI sich selbst zu überlassen,
sowenig möchte ich die KI "entlarven" und ein bequemes "Na
also, ich habe es ja immer gewußt" stützen.
Ich glaube nicht, daß es mit dem
Ansatz der physikalischen Symbolsysteme gelingen wird, Computerprogramme
oder Roboter zu entwickeln, die unseren Denk- und Intelligenzleistungen
nahe kommen, und ich glaube auch, daß die neuerdings wieder propagierten
subsymbolischen, konnektionistischen Ansätze – neuronale Netze, massive
Parallelverarbeitung – nur bei Problemen Erfolg haben werden, die im
weitesten Sinne Mustererkennung erfordern.
Aber die Beschäftigung mit der KI
ist dennoch nicht einfach nur eine gefährliche Zeit- und
Ressourcenverschwendung, nicht nur eine aufwendige Sackgasse (eher schon
die Windung auf einem Wendel). Ich denke, daß die KI auch den Anlaß und
die Chance bietet, über vieles neu nachzudenken, unser Selbstverständnis,
unsere Vorstellung vom "guten Leben" und unser Konzept von
Rationalität zu überprüfen (dazu gehören nicht nur Antworten darauf,
ob intelligente Maschinen möglich sind, sondern auch darauf, ob und zu
welchen Zwecken wir solche Maschinen wollen).
Das Aufspüren der
ideengeschichtlichen Wurzeln der KI, die Reflexion über ihre Vorhaben und
Resultate (z. B. daß so hoch geschätzte geistige Fähigkeiten wie
Schachspielen oder das Lösen von Differentialgleichungen viel leichter
durch Computer realisiert werden können als das visuelle
Wahrnehmungssystem einer Katze oder das Sprachvermögen eines sechsjährigen
Kindes) samt der gesellschaftlichen und kulturellen Veränderungen, und
auch Gedankenexperimente wie der Turing-Test und das Chinesisch- Zimmer,
bereichern dabei den philosophischen und den interdisziplinären Diskurs.
Die KI kann hier auch von der
Philosophie lernen, wie umgekehrt auch Erfolge und Mißerfolge der KI als
"empirische Tests" philosophischer Thesen gelten können.
Die "starke KI" sagt, daß
auch wir Computer sind (und wer das leugnet, denkt vorwissenschaftlich).
Wir "Humanisten" lehnen das natürlich ab. Warum? Weil wir
evidentermaßen anders sind als Computer: wir sind nicht
"mechanisch", wir haben einen freien Willen, setzen uns Zwecke
und übernehmen Verantwortung, wir sind kreativ, haben Üerzeugungen, Wünsche
und Emotionen. Wenn das "Computermodell des Geistes" Recht hat,
wird dies alles durch eine "Idiotenarmee" erledigt, durch ein
komplexes Ensemble von im einzelnen ausgesprochen anspruchslosen
Prozessen, zu denen wir introspektiv keinen Zugang haben. Was ist
eigentlich so schrecklich an dieser Vorstellung, was wäre so schlimm
daran, wenn sich herausstellen würde, daß Wahrnehmungen, Schlußfolgerungen,
das Erfinden einer neuen Melodie, das bewußte Ablehnen einer Zigarette
und anderes, auf das wir so stolz sind, auf diese Weise erfolgt?
Wir haben uns an den Gedanken einer
engen naturgeschichtlichen Verwandtschaft mit den Tieren gewöhnt und
daran, daß unserem Denken physiologische Prozesse zugrundeliegen; einige
"Humanisten" sind ausgesprochen verliebt in den Gedanken, daß
wir eine durch frühkindliche Traumata mehr oder weniger deformierte
Hydraulikanlage zum Ausgleich von Eros und Thanatos sind; wir haben uns
daran gewöhnt, bei verhältnismäßig einfachen Rechnungen mehr einem Gerät
für zwanzig Mark als unserer langjährigen Schulbildung zu vertrauen (und
jene, die das als Kulturverlust beklagen, lassen sich von ihren Kindern
zeigen, wie man ein modernes Autoradio bedient); und dennoch streiten wir
mit Recht und dessen ungeachtet darüber, ob eine neue Asylregelung die
Menschenwürde verletzt und gegen den Geist des Grundgesetzes verstößt.
Wie gesagt, was genau ist so schlimm
an dieser Vorstellung? Auf der anderen Seite sehen wir Menschen, die
jahrelang mit Menschen und an Computern gearbeitet haben, Kognitions- und
Intelligenzprozesse erforschen und im vollen Ernst vorschlagen, die
Entscheidung, ob eine Interkontinentalrakete mit atomaren Mehrfachsprengköpfen
abgefeuert werden soll, einem Computersystem zu übertragen, weil der
Mensch zu langsam und zu fehlbar, zu emotional und zu unberechenbar, also
der schlechtere Computer sei.
Wie kommt es zu diesem tiefgreifenden
Aneinandervorbeireden, zu der Vorstellung einerseits, daß unser Verständnis
von Freiheit und Würde die Aufklärung mentaler Prozesse in dieser
Richtung von vornherein verbietet, und zu der Vorstellung andererseits, daß
das Abweichen von selbst gesetzten formalen Standards unser Abtreten
zugunsten von Maschinen gebietet?
Wie kommt es zu dieser heillosen
Verwirrung von Erklärung und Rechtfertigung und warum spielt gerade der
Computer, ein Gerät, an dem ich diese Zeilen schreibe und das dafür sehr
nützlich ist, dabei eine so große Rolle?
Die eingangs genannten zwei
Fraktionen haben eine je eigene Sichtweise mit jeweils gewisser
Plausibilität (und je eigenen blinden Flecken).
Für die einen ist der Mensch, auch
seine Kultur und Technik, Produkt und Teil der Natur. Das Denken (als
Hirntätigkeit und objektives Verhalten) ist wohl komplexer, aber nicht
grundsätzlich anders als andere Naturvorgänge, es hat nichts Magisches
oder Geheimnisvolles, sondern läßt sich mit (natur-) wissenschaftlichen
Mitteln erforschen und erklären (und was ich verstanden habe, kann ich
auch nachbauen).
Für die anderen sind die Gesetze und
Theorien der Naturwissenschaften kulturelle Leistungen, sprachlich
vermittelt und abhängig von unseren Zwecken und Möglichkeiten,
"Natur" also ein Teilbereich der menschlichen Kultur und
Technik; und Computer gibt es entsprechend nur deshalb, weil es Nutzer,
Konstrukteure und Programmierer gibt, sie sind das Mittelstück und Medium
eines Prozesses, der beim Menschen beginnt und wieder endet. Somit wäre
es einfach absurd, ihnen eine "eigene" Denkfähigkeit
zuzuschreiben.
Ich denke, daß beide Seiten, wir
alle, noch nicht wirklich verstanden haben, worum es hier geht.
Um nocheinmal ganz von vorne
anzufangen:
-
Descartes
hat die Menschen vom Rest der Welt, von den Tieren, Pflanzen und
Dingen, durch das Innen und Außen von Bewußtsein, durch zwei völlig
verschiedene Substanzen geschieden.
-
Bacon
hat die Naturbetrachtung für gänzlich unfruchtbar erklärt, wenn sie
nicht demWohl der Menschen dient, und diese Macht und Herrschaft über
die Natur sei nur möglich, wenn man ihre Gesetze erforscht und sich
ihnen unterwirft.
-
Kant
hat gesagt, daß die Moral, als Reich der Freiheit, dort beginnt, wo
die Natur, als Reich der Notwendigkeit, aufhört.
Wir Menschen haben lange mit dieser
strikten Trennung in Subjekt und Objekt, in Geist und Materie, in Kultur
und Natur, in Kunst und Mechanik, in Ethik und Wissenschaft, in Gründe
und Zwecke und in Ursachen und Wirkungen, in Verstehen und Erklären, in
Intentionalität und Kausalität, in Handeln und Verhalten, gut gelebt.
Aber seit einiger Zeit beginnen die Ränder
und Grenzen zu zerfransen, die scharfen Trennungslinien zu verschwimmen.
Die Aufklärung hat uns die Gewißheit unserer Verantwortung, die
Menschenrechte und den Abbau der Furcht vor den unheimlichen Kräften der
Natur gebracht.
Aber, auch das gehört zur Dialektik
der Aufklärung, die zur Naturbeherrschung entwickelten Mittel –
Mathematik, Naturwissenschaften, Logik – lassen sich auch auf den
Menschen anwenden, die häufig szientistisch verkürzte, instrumentelle
Vernunft sieht zunehmend weniger Grund, sich an die von Descartes, Bacon
und Kant gezogenen Grenzen zu halten.
Auch hat uns die Aufklärung nicht
davor bewahrt, in vielen Bereichen – z. B. bei der Fließbandarbeit –
selbst immer methodischer, regulierter und "maschinenhafter" zu
werden.
Schließlich werden auch die Grenzen
zwischen den "Zwei Kulturen" der Natur und Geisteswissenschaften
immer durchlässiger: von der Evolution bis zur Synergetik, von der
Quantentheorie bis zur Autopoiese, werden Begriffe und Konzepte aus dem
einen Bereich in den anderen übernommen und häufig auch wieder,
empirisch und begrifflich angereichert, zurückgegeben.
Prominentestes und epochentypisches
Beispiel für diese Entwicklung ist allerdings der Computer als zur Zeit
vielversprechendstes Mittel zur Naturbeherrschung und zur Verwaltung der
Menschen.
Der programmierbare Computer ist eine
Universalmaschine, aber nicht wirklich "mechanisch" (jedenfalls
nicht in der Hinsicht, die ihn für uns interessant macht). Hier geht es
nicht um Kategorien wie Kraft, Druck oder Impuls, es geht um
Symbolmanipulation, verarbeitet und erzeugt wird Information (und keiner
weiß genau, was dieser "Sto " – weder Materie noch Energie,
wie Norbert Wiener sagte –
eigentlich ist: "eine Art modernen Phlogistons"?), diese
Maschine liegt quer zu den vertrauten Dualismen von Geist und Körper und
von Form und Inhalt.
Durch diese Verobjektivierung des
Subjektiven, durch die maschinelle Realisierung mentaler Prozesse, ist
eine neue Herausforderung für die Selbstbesinnung darüber entstanden,
was den Menschen zum Menschen macht.
Der Versuch, intelligente Maschinen
zu entwickeln, zwingt zum genauen Nachdenken über den Unterschied von
Daten, Information, Wissen und Sinn, von Syntax, Semantik, Pragmatik, vom
Folgen, Finden,Wählen, Ignorieren, Erfinden einer Regel, von Verstand,
Urteilskraft, Vernunft, zum genauen Nachdenken über die Rolle und
Bedeutung unseres biologischen und kulturellen Erbes, der
Sprachgemeinschaft und der Lebenspraxis. (...)
Intentionalität und Verstehen,
Denken, Bewußtsein, Rationalität und Willensfreiheit, Sinn, Bedeutung
undWahrheit sind genuin philosophische Themen. Aber, auch hier gilt der
Satz von Kant,
"Gedanken ohne Inhalt sind leer,
Anschauungen ohne Begriffe blind".
Ein unverkrampfter, interessierter,
aber auch kritischer Blick auf die empirischen Wissenschaften, die sich
mit diesen Themen beschäftigen, dient – wie schon bei Kopernikus, Darwin
und Freud – auch den philosophischen
Interessen und der Selbstaufklärung der Menschen.
Searles
Gedankenexperiment vom "Chinesisch-Zimmer" aus der
Innenperspektive des Turing-Tests lenkt die Aufmerksamkeit auf die ursprüngliche
Intentionalität und damit auf das Sprachverstehen, das Erfassen der
Bedeutung sprachlicher Ausdrücke als wesentlichen Prüfstein für die
Frage, ob Computer denken können.
Mit dem Sprachverstehen beim Menschen
befassen sich neben der Philosophie und KI z. B. auch die Linguistik und
Psychologie, also Wissenschaften mit ganz unterschiedlichen Ansätzen und
Methoden, Fachsichten und Grenzen.
Das Projekt des maschinellen
Sprachverstehens erfordert die strikte Formalisierung wesentlicher Teile
der Semantik – und die interdisziplinäre Zusammenschau und -arbeit der
genannten Disziplinen.
Lust auf mehr....