Im Schatten der Zukunft
Dieser Beitrag wird sich nicht, wie die früheren Beiträge, mit einer bestimmten Form interpersoneller Wahrnehmung beschäftigen. Trotzdem steht das Thema dieses Beitrags in einer unmittelbaren Beziehung zu den Formen interpersoneller Wahrnehmung. Sollte das, worum es in diesem Beitrag geht, jemals realisiert werden, wird diese technische Innovation auch nachhaltige Auswirkungen auf die Formen interpersoneller Wahrnehmung haben. Die Rede ist von Künstlicher Intelligenz. Um sich klar zumachen, um was für einen großen Schritt es sich handelt, wenn eine derartige technische Leistung realisiert werden würde, möchte ich auch von der Erschaffung von Leben auf einer anorganischen Basis ohne einen eigenen Reproduktionszyklus sprechen. Warum ich von Leben spreche, wird im weiteren Verlauf des Textes deutlicher werden.
Der Grund für diese Betrachtungsweise liegt darin, dass ich gelegentlich den Eindruck habe, dass die Formulierung »künstliche Intelligenz« die ganze Tragweite dieses Forschungsziels nicht voll zur Geltung bringt, obwohl bereits viele Science-Fiction-Romane auf die funktionale Äquivalenz zwischen Menschen und Robotern und den daraus erwachsenden moralischen Konsequenzen hinweisen. Die Diskussionen über die Rolle der Technik in der modernen Gesellschaft haben zwar die mögliche Abschaffung des Menschen durch Technik thematisiert, aber sich häufig zu wenig für die Frage interessiert, was eigentlich an ihre Stelle tritt. Vielmehr wurde diese Entwicklung, je nach dem, ob man Erwerbsarbeit als Fluch oder Segen betrachtete, begrüßt oder verdammt. Science-Fiction-Romane fokussierten dagegen auf moralische Fragen, bei denen die Maschinen, Roboter oder Cyborgs die Rolle übernehmen, die in früheren Geschichten Sklaven, Indianer oder Schwarze einnahmen. In Science-Fiction-Romanen bieten menschenähnliche Maschinen eine neue Möglichkeit das Thema Diskriminierung zu behandeln, lediglich die wissenschaftlich-technologischen Rahmenbedingungen der Plots sind andere als in der Vergangenheit und Gegenwart. Durch Science Fiction konnte man schon ahnen, wohin die Entwicklung geht. Trotzdem bleibt ein Sachverhalt unterbelichtet, nämlich welches Ziel man sich mit der Erschaffung von Künstlicher Intelligenz gestellt hat: die Erschaffung von in ihren Erlebens- und Handlungskapazitäten den Menschen ebenbürtige, wenn nicht sogar überlegene Maschinen. Und obwohl es noch nicht gelungen ist eine Künstliche Intelligenz zu entwickeln, kann man die Auswirkungen dieses Entwicklungsschritts auf die Formen interpersoneller Wahrnehmung bereits heute spüren, einerseits angeregt durch Science-Fiction-Romane und andererseits durch die rasante Entwicklung der Computertechnologie, denn es knüpfen sich sowohl große Hoffnung als auch große Ängste an dieses Ereignis.
Gerade wenn man sich die publizistische Aufbereitung dieser technischen Entwicklungen anschaut – genannt seinen hier nur Stichworte, wie Big Data und NSA –, könnte man den Eindruck bekommen, das Ziel sei bereits erreicht. Bei einer sehr oberflächlichen Betrachtung kann man diesen Eindruck bekommen. Doch solche extrem vereinfachenden Darstellungen verkennen, was eigentlich nötig ist, damit man von Künstlicher Intelligenz sprechen kann. Man muss sich gar nicht sehr tief in den aktuellen Forschungsstand einlesen, um zu erkennen, dass man noch sehr weit davon entfernt ist eine Künstliche Intelligenz zu erschaffen. Heute haben wir es eigentlich nur mit Maschinen zu tun, die in der Lage sind Intelligenz gegenüber einem menschlichen Interaktionspartner zu simulieren oder vorzutäuschen. Zugleich wird immer deutlicher mit welchen Problemen man konfrontiert wird, wenn man versucht eine Künstliche Intelligenz zu erschaffen. Diese Entwicklung wirft auch ein anderes Licht auf die menschlichen Fähigkeiten, die wir für selbstverständlich halten, und tangiert damit bereits heute die Formen interpersoneller Wahrnehmung. In der einen oder anderen Form wirft eine noch nicht eingetretene und möglicherweise auch nie eintretende Zukunft bereits heute ihre Schatten voraus, der sich in der Regel als kulturpessimistischer und technikfeindlicher Abwehrreflex Ausdruck verleiht.
Warum Soziologie?
Weil diese technischen Entwicklungen Projektionsfläche für eine große Menge an begründeten und eine noch viel größere Menge an unbegründeten Ängsten ist, scheint es angebracht zu sein, auf die Schwierigkeiten einzugehen, die bei der Entwicklung von Künstlicher Intelligenz auftreten können. Dies soll hier aus einer soziologischen Perspektive geschehen. Der Grund dafür ist einfach. Das selbstgesetzte Ziel der KI-Forschung besteht darin Roboter zu bauen, die in der Lage sein sollen mit Menschen so zu interagieren, dass dem menschlichen Interaktionspartner nicht mehr auffällt, dass es sich beim Gegenüber nicht um einen Menschen handelt. Es geht, mit anderen Worten, darum einen Roboter zu bauen, der alle Fähigkeiten des Menschen zur Kommunikationsteilnahme besitzt. Selbst wenn sich einige Forschungen zunächst darauf konzentrieren, dass ein Roboter nur bestimmte Leistungen erbringen soll, zu denen Menschen in der Lage sind, letztlich geht es immer darum in einer sozialen Situation einen der beteiligten Menschen durch einen Roboter zu ersetzen, egal ob es einzelne Spezialleistungen oder das volle Spektrum menschlicher Handlungskapazitäten betrifft. Dies wird besonders deutlich, wenn man sich z. B. den Stand zur Entwicklung von Konversationsrobotern anschaut, die einen Menschen als Gesprächspartner in einer Situation ersetzen sollen. Die Zielstellung, dem Menschen ebenbürtige Kommunikationspartner zu erschaffen, macht es möglich, dass man auch aus soziologischer Perspektive Probleme und Anforderungen beschreiben kann, die durch die KI-Forschung gelöst werden müssten, damit man von einer Künstlichen Intelligenz sprechen kann.
Die Soziologie beschäftigt sich mit den Regelmäßigkeiten des zwischenmenschlichen Zusammenlebens. Niklas Luhmann machte die Soziologie mit der Spezifizierung der Allgemeinen Systemtheorie für soziale Phänomene (vgl. 1984) auch mit den Forschungsergebnissen der Kybernetik und den Kognitionswissenschaften bekannt. Durch die Anwendung der allgemeinen Systemtheorie auf die Beobachtung sozialer Phänomene wurde deutlich, wie unwahrscheinlich die soziale Ordnung ist, die wir heute für selbstverständlich halten. Damit soziale Ordnung möglich wird, müssen so viele Probleme gelöst sein, über die wir normalerweise kaum nachdenken. Dass man aus soziologischer Perspektive in der Lage ist, etwas zu diesem Thema beizutragen, wird möglich, wenn man Gesellschaft als Gesamtheit der stattfindenden Kommunikation begreift. Dieser kommunikationstheoretische Ansatz entwickelt seinen Gesellschaftsbegriff aus einer Situation, an der mindesten zwei Personen beteiligt sind. Der Begriff »sozial« wird hier für Sachverhalte, genauer Probleme, reserviert, die die Beteiligung von mindestens zwei Personen erfordert. Die Anzahl der beteiligten Personen kann aber im Prinzip bis auf die ganze Menschheit ausgedehnt werden. Ausgangspunkt ist ein Problem, von dem jeder Mensch betroffen ist und das man am Beispiel einer zwischenmenschlichen Begegnung am deutlichsten darstellen kann. Wenn einer von zwei Kommunikationspartnern von einer Künstlichen Intelligenz ersetzt wird, ändert das nichts an dem Problem, was mit Kommunikation gelöst werden soll. Deswegen lässt sich heute aus der Perspektive der soziologischen Systemtheorie ein anderes Licht auf die Probleme der KI-Forschung werfen. So kann die Soziologie möglicherweise auf Probleme aufmerksam machen, die von der KI-Forschung bisher gar nicht oder nicht in ihrer vollen Bedeutung erkannt wurden.
Das soziale Grundproblem und seine Lösung
Salopp kann man das Problem, von dem alle Menschen betroffen sind, folgendermaßen formulieren: Menschen können nicht die Gedanken anderer Menschen lesen. Was in den Köpfen anderer Menschen vorgeht, kann nicht direkt beobachtet werden. Menschen sind füreinander wechselseitig intransparent. Aufgrund dieser Intransparenz muss darüber hinaus davon ausgegangen werden, dass das psychische Erleben zweier Personen divergiert. Missverständnisse, Konflikte, soziale Unordnung und Entropie sind die Folgen. Die Lösung besteht darin, sich durch Handlungen mitzuteilen. Durch ihr Verhalten in einer Situation teilt eine Person direkt und indirekt auch mit, wie sie die Situation erlebt. Der kontinuierliche Verhaltensstrom, der zwischen Menschen entsteht, um das Problem der wechselseitigen Intransparenz zu lösen, wird als Kommunikation bezeichnet. Kommunikation ist also die Lösung eines menschlichen Problems. Der Begriff wird zunächst für die Ereignisse reserviert, die zwischen Menschen geschehen. Aus der beschriebenen Problemsituation lassen sich weitere soziale Probleme ableiten. Deswegen bezeichne ich es auch als das soziale Grundproblem. Auf die abgeleiteten Probleme werde ich allerdings im Folgenden nicht weiter eingehen, da ich mich nur auf Schwierigkeiten konzentrieren werden, die sich an dem Grundproblem darstellen lassen [1].
Damit Kommunikation als Lösung funktioniert, müssen jedoch zwei Bedingungen erfüllt sein. Zum einen muss es in einer sozialen Situation ein gemeinsames Zentrum geben, auf das sich die Aufmerksamkeit der beteiligten Personen richtet. Die Handlungsbeiträge der Beteiligten organisieren sich um dieses gemeinsame Zentrum der Aufmerksamkeit. Die Aufmerksamkeit der Beteiligten kann sich aber nicht ausschließlich auf das gemeinsame Zentrum der Aufmerksamkeit konzentrieren, sondern muss sich auch auf die beteiligten Personen richten. Unter der Bedingung der physischen Anwesenheit nehmen die Beteiligten wahr, dass sie sich wechselseitig wahrnehmen und es entwickelt sich ein gemeinsames Bewusstsein über die wechselseitige Beobachtbarkeit. Dies ist die zweite Bedingung. Erst durch ein gemeinsames Zentrum der Aufmerksamkeit und ein gemeinsames Bewusstsein über die wechselseitige Wahrnehmung ist das Erleben der Beteiligten soweit gerahmt, dass es möglich wird durch die Koordination ihrer Handlungen zum Einen das soziale Grundproblem zu lösen und zum Anderen auf eine Kongruenz der divergierenden Perspektiven der beteiligten Personen hinzuarbeiten. Die Funktion der Kommunikation lässt sich daher als Handlungskoordination bei divergentem psychischem Erleben der beteiligten Personen beschreiben. Jedes soziale Phänomen wird vor diesem Hintergrund interpretiert. Da sich eine Kongruenz des psychischen Erlebens aber immer nur problem-, sachverhalts- oder themenbezogen, allerdings niemals zwangsläufig, entwickelt, kann sie niemals zu einer vollständigen Übereinstimmung im Welt-Erleben zweier Personen führen. Das ist für eine erfolgreiche Problemlösung auch gar nicht notwendig. Der Versuch vollständig informiert zu sein, führt in einen unendlichen Regress der Informationsbeschaffung und lähmt damit zugleich die Handlungsfähigkeit. Gleichwohl konstruieren die Beteiligten auf der Grundlage unsicherer Informationen, die aber eine ausreichende Handlungssicherheit bieten, eine gemeinsam geteilte Welt, von der die Beteiligten ein Bestandteil sind.
Verschiedene Theorieaansätze würden vermutlich als eine weitere Bedingung einer erfolgreichen Problemlösung eine gemeinsame Sprache oder gemeinsam geteilte Symbole hinzufügen. Hier wird darauf verzichtet, weil es sich bei einer gemeinsamen Sprache bereits um eine Lösung des sozialen Grundproblems handelt. Mithin ist aufgrund der faktischen Existenz vieler verschiedener Sprachen offensichtlich, dass es eine ungeheure Variationsbreite für die Lösung dieses Problems gibt und keine dieser Lösungen eine zwingende Notwendigkeit besitzt. In zeitlicher Perspektive stellt sich für einen soziologischen Beobachter daher die Frage, wieso sich im Kontext anderer Möglichkeiten eine bestimmte Lösung herausgebildet hat, z. B. eine bestimmte Sprache. Hinzukommt außerdem, dass Menschen nicht mit der Fähigkeit geboren werden eine bestimmte Sprache zu sprechen, sondern lediglich mit der Fähigkeit jede beliebige Sprache zu lernen. Sprache kann daher nicht vorausgesetzt werden, sondern sie entwickelt sich emergent aus einem Versuch das gemeinsame Handeln zu koordinieren, um das soziale Grundproblem zu lösen. Eine gemeinsame Sprache gibt den beteiligten Personen die Möglichkeit ihr Erleben in einer Form auszudrücken, die es dem Adressaten erleichtert das Erleben des Mitteilenden nachzuvollziehen und sein eigenes Handeln daran zu orientieren. Sprache ermöglicht also ein gleichgerichtetes Erleben in einer Situation. Wenn diese gemeinsame Sprache noch nicht zur Verfügung steht, muss sie erst entwickelt werden.
Tierische, menschliche, künstliche Intelligenz?
Dieser soziologische Ansatz ist sehr stark durch Erkenntnisse und Schlussfolgerungen kybernetischer und kognitionswissenschaftlicher Forschungen geprägt. So definiert der Kognitionswissenschaftler Francisco J. Varela Kommunikation als „die wechselseitige Gestaltung und Formung einer gemeinsam geteilten Welt durch gemeinsames Handeln“ (vgl. 1990, S. 113). Diese Definition stimmt im Wesentlichen mit der obigen Beschreibung von Kommunikation als Problemlösung überein, denn sie stellt auch darauf ab, dass durch die Handlungskoordination auf eine Konvergenz des Erlebens hingearbeitet wird. Im Anschluss an diese Definition von Kommunikation bestimmt Varela Intelligenz als „die Fähigkeit, in eine mit anderen geteilte Welt einzutreten“ (vgl. 1990, S. 111). Auch diese Definition kann problemlos übernommen werden. Intelligenz wird bei dieser Definition durch den Bezug auf den Kommunikationspartner bestimmt. Das eigene Erleben orientiert sich am Erleben des Kommunikationspartners. Das entspricht dem gemeinsamen Bewusstsein über die wechselseitige Beobachtbarkeit. Ohne dieses Bewusstsein wäre es einer Person nicht möglich in eine mit anderen geteilte Welt einzutreten, denn der Andere kommt nur über das Bewusstsein, dass man von dieser anderen Person wahrgenommen wird, in den Blick.
Obwohl der hier verwendete Kommunikationsbegriff zunächst nur auf Menschen zugeschnitten ist, bietet die Beschreibung des sozialen Grundproblems die Möglichkeit den Kommunikationsbegriff auch auf Tiere oder Roboter zu erweitern. Denn auch wie Tiere und Roboter erleben, bleibt intransparent. Bei der Interaktion zwischen Menschen und Tieren zeigt sich, dass auch Tiere zu einem gewissen Grad die Fähigkeit besitzen in eine mit anderen geteilte Welt einzutreten. Und auch Roboter müssen über diese Fähigkeit verfügen, denn ansonsten agieren sie nicht, sondern reagieren nur. Geht man also vom Grundproblem der Handlungskoordination unter der Bedingung des divergierenden Erlebens der Beteiligten aus, macht es keinen Sinn zwischen menschlicher, tierischer oder künstlicher Intelligenz zu unterscheiden. Sobald es notwendig wird zur Lösung eines Problems die Handlungen von mindestens zwei Betroffenen zu koordinieren, ist diese Fähigkeit gefordert. Diese Notwendigkeit ergibt sich nicht erst bei Menschen, sondern schon bei Tieren. Mit Robotern würden weitere potentielle Kandidaten ins Spiel kommen. Das führt zu der Schlussfolgerung, dass es, sobald es zu Lösungsversuchen von Koordinationsproblemen zwischen zwei autonom agierenden Systemen kommt, egal ob menschlich, tierisch oder künstlich, es nicht um die Frage gehen kann, ob die beteiligten Systeme intelligent sind oder nicht, sondern nur um die Frage, wie stark diese Fähigkeit bei diesen unterschiedlichen Systemen ausgeprägt ist. Das entscheidende Kriterium ist die autonome Operationsweise des jeweiligen Systemtyps. Üblicherweise hat man Intelligenz bisher nur lebenden Systemen, wie Menschen, Tieren oder auch Außerirdischen, unterstellt. Sollte es allerdings jemals gelingen zur Kommunikationsteilnahme fähige Roboter zu kreieren, dann wird sich unser Verständnis von intelligentem Leben radikal wandeln müssen, denn Künstliche Intelligenzen würden beweisen, dass Intelligenz nicht an eine organische Basis gebunden wäre. Obwohl KI-Einheiten über keinen phylogenetischen Reproduktionszyklus verfügen, wären sie doch in der Lage die Unterscheidung zwischen System, sich selbst, und ihrer Umwelt, andere Kommunikationspartner, zu prozessieren, um die Teilnahmefähigkeit an Kommunikation zu sichern. Ich würde auch im Hinblick auf diesen Reproduktionsprozess eines künstlichen Bewusstseins von Leben sprechen.
Paradoxien als Kognitionsproblem
Nach dieser grundsätzlichen Bemerkung konzentriere ich mich nun wieder auf die Koordinationsprobleme der Menschen. Die Fähigkeit wahrzunehmen, dass man von anderen wahrgenommen wird, muss also zunächst jedem Menschen unterstellt werden. Dann geht es nur noch um die Frage, wie stark ist die Fähigkeit ausgeprägt. Warum diese Fähigkeit nicht bei jedem Menschen gleich gut entwickelt ist, kann verschiedene Ursachen haben. Auf dieses Problem ist man unter anderem in der Psychologie aufmerksam geworden. Der Psychotherapeut Ronald D. Laing hielt die Fähigkeit, in eine mit anderen geteilte Welt einzutreten, für den Maßstab, an dem sich die geistige Gesundheit einer Person beurteilen lasse (vgl. 1972, S. 31). Wenn es aber phylogenetisch keinen Grund gibt anzunehmen, dass diese Fähigkeit bei verschiedenen Menschen unterschiedlich entwickelt ist, dann muss es sich um ein Folgeproblem einer gemeinsam entwickelten Sprache handeln. Eine gemeinsame Sprache kann damit die Fähigkeit zur Informationsverarbeitung in Bezug auf die relevante Umwelt beeinträchtigen oder vermindern. Das bedeutet, Sprache kann als Lösung eines bestimmten Problems Folgeprobleme schaffen, die sich möglicherweise nicht in der entwickelten Sprache ausdrücken lassen. Die Anpassungsfähigkeit des Sprachsystems und damit auch der beteiligten Personen, die mit dieser Sprache ihre Welt konstruieren, kann also durch die verwendete Sprache beeinträchtigt werden.
Dieser Problemaufriss lässt bereits erahnen, welche Ansprüche Kommunikation an die beteiligten Menschen stellt. Wenn man daran interessiert ist eine Künstliche Intelligenz zu erschaffen, dann muss sie diese Hürde ebenso nehmen. Diese Hürde ist allerdings schon für Menschen nicht einfach zu nehmen. Bei Menschen gestaltet sich, mit anderen Worten, die Teilnahme an Kommunikation nicht problemlos und auch eine Künstliche Intelligenz wird diese Probleme meistern müssen, damit sie genauso wie Menschen an Kommunikation teilnehmen kann. Wie hoch diese Hürde für die KI-Forschung ist, wird deutlich, wenn man diesen Problemaufriss in weitere Teilprobleme zerlegt. Alle diese Teilprobleme sind letztlich Variationen eines Themas bzw. eines Problems, nämlich „dasselbe ist verschiedenen“ bzw. „verschiedenes ist dasselbe“. Die Hürde, die es sowohl für Menschen als auch für Künstliche Intelligenzen zu meistern gilt, besteht damit im Umgang mit Paradoxien.
Beobachten und strukturelle Kopplung
Paradoxien werden bis heute in der Wissenschaft eher stiefmütterlich behandelt. Entweder gelten sie als rhetorische Spielereien, als logische Anomalien oder mathematische Unmöglichkeit. Doch der Anthropologe Gregory Bateson hatte bereits in den 60er Jahren des letzten Jahrhunderts die Vermutung geäußert, dass es einen Zusammenhang zwischen der Beteiligung an Kommunikation und dem Umgang mit Paradoxien gibt. Seien es Phänomene wie die Beteiligung an Spielen, das Verständnis von Humor und Ironie oder Lernen, immer handelt es sich um Kommunikationsformen, die den Umgang mit widersprüchlichen Informationen bzw. mit Paradoxien erfordern (vgl. Bateson 1981, S. 272f.). Der Soziologe Niklas Luhmann griff diese Idee auf und nahm an, dass Kommunikation selbst paradox konstituiert ist. Der Grund dafür liegt darin, dass er die basale Operation der Kommunikation als etwas identifizierte, was er als »Beobachtung« bezeichnete (vgl. Luhmann 1993).
Mit dem Begriff Beobachtung ist im Anschluss an den Mathematiker George Spencer Brown eine Operation gemeint, bei der durch das Treffen einer Unterscheidung etwas bezeichnet wird (vgl. 1997, S. 1). Das besondere an dieser Operation ist, dass sich der imaginäre Wert – also eine Vorstellung – des Bezeichneten nur im Unterschied zu dessen Gegenteil ergibt, welches die jeweils andere Seite einer Unterscheidung ist und ebenfalls bezeichnet werden kann. Eine Unterscheidung besteht, mit anderen Worten, aus zwei Bezeichnungen, die jeweils etwas anderes bezeichnen. In einem Moment kann aber immer nur eine der beiden Seiten aktualisiert werden. D. h. man kann nicht zwei Bezeichnungen auf einmal machen. Nur durch den Aufwand von Zeit ist es möglich auch mit der anderen Seite der Unterscheidung zu beobachten, also etwas zu bezeichnen. Die Unterscheidung besteht somit aus zwei Bezeichnungen und nur durch den Unterschied zwischen den beiden Bezeichnungen ist es möglich, dass durch das Treffen einer Unterscheidung aus der Sicht des Beobachters ein Unterschied entsteht, der einen Unterschied macht. Bateson bezeichnet diesen Unterschied, der einen Unterschied macht als Information (vgl. 1982, S. 123). Informationen sind damit immer das Ergebnis eines Beobachters, der mit einer bestimmten Unterscheidung beobachtet. Die Information ist jedoch etwas neues, von der Unterscheidung verschiedenes, und damit emergent. Durch die Kombination mehrerer solcher Unterscheidungen können sich in der Vorstellung eines psychischen Beobachters distinkte imaginäre Eigenwerte herauskristallisieren. Die imaginären Eigenwerte sind allerdings abhängig von den Erkenntnismitteln, also den verwendeten Unterscheidungen. Dieses Verhältnis zwischen Erkenntnis und Erkenntnismittel wird als strukturelle Kopplung (vgl. Varela 1997, S. 58ff.; Maturana/Varela 2009, S. 251f.) bezeichnet.
Die soziologische Systemtheorie betrachtet psychische und soziale Systeme als beobachtende Systeme. Beide gewinnen ihre relevanten Informationen durch das Unterscheiden und Bezeichnen. Die Beobachtungsoperation hat für beide Systemtypen dieselbe Funktion, die darin besteht die psychische Aufmerksamkeit auf etwas zu richten und über die Zeit zu lenken. Für psychische Systeme bedeutet das, dass sowohl die Wahrnehmung als auch das bewusste Denken Formen der Beobachtung sind. Soziale Systeme entstehen sobald mindestens zwei Menschen mit einem gemeinsamen sozialen Problem konfrontiert werden. Für die Lösung dieses Problems müssen die beteiligten Personen ihre Handlungen koordinieren. Dies gelingt in dem sie durch ihre Mitteilungen die Aufmerksamkeit des Kommunikationspartners auf etwas richten und lenken. Während psychische Systeme zum Denken im Extremfall eine Privatsprache entwickeln, die sonst niemand anderes verstehen kann, müssen sie, um von jemand anderes verstanden zu werden, auf konventionelle Zeichen und Handlungen zurückgreifen, die auch der Kommunikationspartner verstehen kann. Auch künstlich geschaffene Systeme, die in der Lage sein sollen in eine mit anderen geteilte Welt einzutreten, müssen daher beobachtende Systeme sein, die fähig sind konventionelle Zeichen zu gebrauchen, um sich mitzuteilen.
Wenn soziale oder psychische Systeme nun auf Widersprüche bzw. Paradoxien stoßen, dann macht sich die paradoxe Konstitution der Beobachtungsoperation bemerkbar. Versucht man nun die Bedingung des Eintretens dieser Paradoxie zu reflektieren, stößt man auf die Form der Unterscheidung und damit auf ihre Selbstreferenz. Paradoxien sind also eigentlich Hinweise auf Selbstreferenzprobleme. Da sowohl soziale und psychische Systeme durch Beobachten ihre Umwelt und sich selbst beobachten, muss anhand der Art und Weise, wie sich die Kommunikation vollzieht, analysiert werden, ob es sich um Selbstreferenzprobleme des sozialen oder der beteiligten psychischen Systeme handelt. In beiden Fällen kann die Reflexion die zugrundeliegende Paradoxie offenlegen, gleichsam beobachtbar gemacht werden. Paradoxien suggerieren jedoch Unterschiede, die keine Unterschiede machen. Sie sind Pseudo-Informationen, die das weitere Beobachten stören. Die Offenlegung einer Paradoxie löst sie also noch nicht auf. Jetzt kennt man allenfalls das Problem. Die Lösung besteht in der Invisibilisierung der Paradoxie. Dies gelingt, indem sie entfaltet wird. Wie dies gelingt, soll im Folgenden skizziert werden. Ausgehend von der Form des Zeichens über die Form der Unterscheidung soll die allgemeine Form der Paradoxie-Entfaltung skizziert werden.
Zeichengebrauch als Paradoxie-Entfaltung
Aus dem Gebrauch von Zeichen ergibt sich eine der vielen Herausforderung für ein KI-System. Die Funktion eines Zeichens ist es, auf etwas zu verweisen, dass vom Zeichen selbst verschieden ist, nämlich das Bezeichnete. Das Wort »Baum« ist nicht der bezeichnete Baum. Und das Wort evoziert bei einem psychischen Beobachter nicht den Baum, sondern entweder die Wahrnehmung oder eine Vorstellung von diesem Baum, die aber zugleich so behandelt werden muss als wäre sie der Baum. Psychische Beobachter müssen in der Lage sein, diese Syntheseleistung zu erbringen und dürfen zugleich nicht vergessen, dass der bezeichnete Baum, das Wort »Baum« und die Vorstellung vom Baum voneinander verschieden sind. Aber erst wenn das Verschiedene als Dasselbe behandelt wird, ist es möglich sowohl die Wörter als auch die Vorstellungen miteinander in Beziehung zu setzen. Damit Unterscheidungen ihre informationsgenerierende und bei Wiederholung der Operation ihre sinngenerierende Funktion erfüllen können, darf das System das Bezeichnete, das Zeichen und die Vorstellung vom Bezeichneten nicht miteinander verwechseln. Das System darf, mit anderen Worten, seine Aufmerksamkeit immer nur auf die Fremdreferenz – das Bezeichnete – richten und nicht auf die Selbstreferenz – das Zeichen. Würde das System diesen Sachverhalt reflektieren, könnte es beobachten, dass es auch bei dieser Fremdreferenz wieder auf sich selbst verwiesen wird, denn das, was es als Umwelt behandelt, ist nur die Vorstellung vom Baum und nicht der bezeichnete Baum. Nach der Selbstreferenz des Zeichens würde das System also auf seine eigene Selbstreferenz stoßen, seine eigenen Gedanken und Vorstellungen. Die Fremdreferenz, der bezeichnete Baum, bleibt operativ unerreichbar. Um sich aber auf diese Fremdreferenz konzentrieren zu können, darf es sich nicht von der Selbstreferenz des Zeichens oder der Selbstreferenz der eigenen Gedanken ablenken lassen. Nachträglich kann es seine Aufmerksamkeit aber sehr wohl auf den Sachverhalt richten, auf den es sie zuvor nicht richten konnte, nämlich dass es selbstreferentiell operiert und es nicht in Bezug auf die Umwelt agiert, sondern nur in Bezug auf seine Vorstellung von der Umwelt, die maßgeblich durch die Unterscheidungen geprägt wird, mit denen die Umwelt beobachtet wird.
Lösung 1: Ignorieren
Ist ein System an dem Punkt angekommen, an dem es auf seine eigene Selbstreferenz oder die des Kommunikationsmediums stößt, hat es drei Möglichkeiten mit diesem Problem umzugehen. Die erste Möglichkeit besteht darin, dieses Problem einfach zu ignorieren. Es macht einfach weiter wie bisher und achtet nicht mehr darauf, dass der Zeichengebrauch eine Syntheseleistung erfordert, damit es nicht von sich selbst abgelenkt wird. Zeichen, Bezeichnetes und Vorstellung werden als Einheit behandelt. Die soziale Funktion des Zeichens kann dann allerdings nur im Anzeigen liegen. Mit dem Zeichen deutet man auf etwas und weist den Kommunikationspartner so auf dieses etwas hin. Er wird dann ebenfalls seine Aufmerksamkeit darauf richten. Man hebt lediglich dieses etwas aus allem anderen hervor. Es steht nun von allem anderen isoliert im Vordergrund. Der Unterschied besteht bloß im Hervorheben dieses etwas im Unterschied zu allem anderen. Die andere Seite der Unterscheidung ist damit nur der Hintergrund und der bleibt unbestimmt. Im Prinzip drückt man nicht mehr aus als »das da«. Dieser Kommunikationsmodus des Anzeigens oder Hindeutens funktioniert nur, wenn das Angedeutete durch die Sinne wahrgenommen werden kann. Dann ist durch Gesten und Laute eine erste primitive Handlungskoordination möglich. Die sich daraus entwickelnde Sprache wäre aber eine reine Objektsprache (vgl. Szasz 2013, S. 136ff.), welche die Aufmerksamkeit des Beobachters auf seine materielle Umwelt richtet. Es darf vermutet werden, dass solche andeutenden Gesten und Laute die ersten Formen von Kommunikation waren. Genauso darf jedoch auch vermutet werden, dass diese Formen der Handlungskoordination relativ schnell an ihre Entwicklungsgrenzen gestoßen sind. Damit sind zugleich die Grenzen des Ignorierens erreicht.
Lösung 2: Spezifizierung
Die zweite Möglichkeit mit dem Paradoxie- bzw. Selbstreferenzproblem umzugehen liegt in der Differenzierung bzw. genauer in der Spezifizierung. Man könnte nun durch weiteres Hindeuten auf einzelne Merkmale eines Baums eine Beschreibung des Baumes anfertigen. Die Beschreibung wäre dann ein funktionales Äquivalent für die Bezeichnung »Baum«. Zugleich würde es einem psychischen System mit einer Beschreibung des Baums besser gelingen sich den Baum vorzustellen, sodass sogar eine Kommunikation über den Baum möglich wäre, selbst wenn er für die Beteiligten nicht unmittelbar wahrnehmbar wäre. Doch auch diese Möglichkeit würde schnell an ihre Grenzen kommen, denn die Beschreibung kann sich nicht ins Unendliche ausdehnen und zum anderen lässt sich die psychische Aufmerksamkeit nicht unbegrenzt lange auf ein Objekt fixieren. Die psychische Aufmerksamkeit lässt sich nur mit sehr großem mentalen Aufwand stillstellen, zum Beispiel beim Meditieren. Üblicherweise ist die psychische Aufmerksamkeit durch Unruhe gekennzeichnet und lässt sich nicht dauerhaft auf etwas fixieren. So lässt sich selbst bei einer Objektsprache nicht ignorieren, dass es nicht nur ein Objekt in der Umwelt gibt, sondern viele verschiedene Objekte, auf die man seine Aufmerksamkeit richten kann. Ein bestimmter Baum lässt sich mühelos von einem anderen Baum unterscheiden. Möglicherweise gehören die beiden Bäume sogar verschiedenen Arten an. Dann ließen sich auch von beiden Bäumen Beschreibungen anfertigen, die beide als Bäume von verschiedenen Arten kenntlich machen. Mit dem Übergang von der Bezeichnung zur Beschreibung hat eine Funktionserweiterung der Beobachtung stattgefunden. Nun ist es nicht nur möglich auf etwas hinzudeuten, sondern es ist nun möglich im Medium der Zeichen etwas darzustellen [2], sodass die beschriebenen Objekte nicht mehr direkt wahrnehmbar sein müssen. Die psychische Aufmerksamkeit lässt sich nun auch auf Abwesendes lenken und auf Sachverhalte, die nicht direkt wahrnehmbar sind. Die Handlungskoordination lässt sich mit einer soweit ausdifferenzierten Sprache durch präzisiere Anweisungen und präzisere Handlungen effektiver gestalten. Weiterhin kann nun auch geplant werden, Handlungsmöglichkeiten besprochen werden, die noch nicht realisiert wurden.
Lösung 3: Generalisierung
Und man kann auch den Baum von vielen anderen Bäumen unterscheiden. Damit geht man wieder einen Schritt zurück und konzentriert sich nun nicht mehr auf einen bestimmten Baum in seiner Konkretion, sondern auf eine Gruppe von Bäumen. Es wird eine Klasse gebildet, die alle Objekte mit denselben Eigenschaften umfasst. Je nachdem welche Eigenschaft man für die Klassenbildung benutzt, um eine Einheit zu konstruieren, können sogar verschiedene Baumarten in einer Klasse zusammengefasst werden. Dies wird möglich, wenn man die Merkmale unberücksichtigt lässt, die eine Baumart von einer anderen unterscheidet. Damit beginnt man die Beziehungen der verschiedenen Baumarten untereinander zu ergründen. Diese Beziehungen sind nicht mehr der direkten Wahrnehmung zugänglich. Es handelt sich um kognitive Sachverhalte, die erst mit Hilfe der Sprache beobachtbar bzw. bewusst unterscheidbar werden, aber nicht sinnlich wahrnehmbar sind. Bei dieser Suche nach Gemeinsamkeiten bei unterschiedlichen Phänomenen handelt es sich um die dritte Lösung, nämlich Generalisierungsleistungen. Dadurch entwickelt sich langsam eine Metasprache (vgl. Szasz 2013, S. 136ff.), durch die sich die Beziehungen der Objekte untereinander beschreiben lassen. Je stärker man von Unterschieden absieht, desto mehr heterogene Sachverhalte lassen sich zu einer homogenen Klasse zusammenfassen. Dabei tritt ein seltsamer erkenntnistheoretischer Effekt ein. Je größer die Klasse ist, die durch Abstraktion bezeichnet werden kann, desto stärker verschwindet ein einzelnes Objekt dieser Klasse mit seinen konkreten Eigenschaften aus dem Fokus der Aufmerksamkeit. Die Bäume verschwinden, der Wald kommt zum Vorschein. Jeder kennt die Redensart „ich sehe den Wald vor lauter Bäumen nicht“. Zur Beschreibung dieses Effekts müsste es umgekehrt lauten, „ich sehe die Bäume vor lauter Wald nicht mehr“. Die Abstraktion hat zwar einen neuen imaginären Eigenwert geschaffen – den Wald. Dafür muss man jedoch viele andere Eigenwerte unberücksichtigt lassen – die verschiedenen Bäume.
Generalisierung und Spezifizierung als erkenntnistheoretische Sackgassen
Hier stößt man auf ein charakteristisches Problem bei Abstraktions- bzw. Generalisierungsvorgängen. Mit jedem Abstraktionsschritt, der immer neue Vergleichshorizonte eröffnet, wird das Erkenntnisobjekt immer undeutlicher und ist bei genügend hoher Generalisierung schließlich nicht mehr unterscheidbar. Dieser Effekt ist vergleichbar mit dem Effekt, der eintritt, wenn man sich von einem wahrnehmbaren Objekt immer weiter entfernt. Irgendwann, wenn die Distanz groß genug ist, ist das Objekt nicht mehr wahrnehmbar. Als kognitiver Effekt tritt er üblicherweise auf, wenn sich die Kommunikation überwiegend in einer Metasprache vollzieht. Er wirkt aber auch in umgekehrter Richtung, dann allerdings entsprechend mit der entgegengesetzten Wirkung. Je stärker man sich auf ein Einzelobjekt konzentriert, desto stärker verschwindet in gleichem Maße der Blick für übergeordnete Zusammenhänge bzw. Klassen. Auf diesen Effekt macht die Redensart „ich sehe den Wald vor lauter Bäumen nicht“ eigentlich aufmerksam. Sie weist auf eine spezifische Unfähigkeit zur Abstraktion hin, wenn sich die Aufmerksamkeit zu stark auf die Beobachtung von einzelnen Objekten spezialisiert hat. Der Effekt tritt entsprechend dann auf, wenn sich die Kommunikation überwiegend in einer Objektsprache vollzieht und die Beziehungen zwischen den Objekten unberücksichtigt bleiben. Generalisierung und Spezifizierung beschreiben damit zwei entgegengesetzte Pfade der Informationsgewinnung, die jeweils für sich allein genommen zu demselben Ergebnis führen, wie das Ignorieren. Sie führen zu jeweils neuen Formen des Ignorierens. Generalisierung führt als Beobachtungsgewohnheit zu der Unfähigkeit einzelne Objekte in ihrer Einzigartigkeit beobachten zu können. Spezifizierung führt als Beobachtungsgewohnheit zu der Unfähigkeit Beziehungen zwischen den einzelnen Objekten beobachten zu können. Generalisierung und Spezifizierung sind, mit anderen Worten, zwei verschiedene Formen seine Aufmerksamkeit auf einen Sachverhalt zu richten und allein jeweils zu einer spezifischen Art von Blindheit führen.
Bei einer oberflächlichen Betrachtung könnte man diese beiden Probleme entweder für epistemologische Kuriositäten oder für rhetorische Spielereien halten. Mithin stößt man hier aber auf das von Bertrand Russel und Alfred N. Whitehead aufgeworfene Problem der Mengenlehre (vgl. 1986 [1925]) – allerdings nicht in seiner mathematischen, sondern in seiner semantischen Form. Es handelt sich damit um ein Darstellungsproblem, also wie die Aufmerksamkeit eines Beobachters auf etwas gelenkt wird. Dieses Problem ergibt sich unmittelbar aus der strukturellen Kopplung von Erkenntnis und Erkenntnismitteln. In Bezug auf Bäume würde es äußerst kurios erscheinen, wenn man von der Gesamtheit aller Bäume als »der Baum« sprechen würde. Nicht nur dass dies grammatikalisch sehr ungewöhnlich wäre, da offenbar für die Mehrzahl der Bäume die Einzahl verwendet wird. Durch diesen Kollektivsingular wird die Klasse aller Klassen von Bäumen mit demselben Wort bezeichnet, wie das kleinste Element aller dieser Klassen. Das Wort »Baum« würde also sowohl einen einzelnen Baum als auch die Gesamtheit aller Bäume bezeichnen. Dabei würde es sich um eine Russellsche Antinomie handeln. Für die Beobachtung von Bäumen würde eine derartige Doppelfunktion des Wortes »Baum«, das Wort seiner eigentlichen Funktion berauben, nämlich die Aufmerksamkeit auf etwas zu richten. Stattdessen würde eine derartige Verwendungsweise sehr viel Verwirrung stiften. Man könnte nun vermuten, dass derartige Verwechslungen sehr unwahrscheinlich sind, denn das Problem leuchtet unmittelbar ein. Es sei allerdings daran erinnert, dass die Rede von »dem Menschen«, obwohl die Menschen gemeint sind, genau eine solche Doppelfunktion erfüllt. Inzwischen haben auch schon viele Intellektuelle diese Verwendungsweise kritisiert, mit dem Argument, dass diese Redeweise von »dem Menschen« dazu geführt hat, dass die Menschen dadurch zum Verschwinden gebracht wurden. Hierbei handelt es sich um einen solchen Effekt zu hoher Generalisierung. In diesem Fall ist das Ergebnis der Tautologie, dass die Gemeinsamkeit, die alle Menschen miteinander verbindet, darin besteht, dass sie Menschen sind. Diese Tautologie ist jedoch kein Unterschied, der einen Unterscheid macht, denn es bleibt unklar, welche Konsequenzen aus einer solchen Beobachtung zu ziehen sind. Stattdessen machen sich umso stärker die Differenzen zwischen den Menschen bemerkbar. Hat man sich jedoch darauf spezialisiert lediglich ein Beobachtungsinstrumentarium nur entwickeln, mit dem man Gemeinsamkeiten beobachten kann, fällt es dann entsprechend schwer, Menschen als einzelne Personen zur Kenntnis zu nehmen.
Inzwischen ist die Suche nach diesem letzten, alles vereinenden Prinzip zu einem selbstgenügsamen Zweck geworden. Diese ziellose Generalisierung bzw. Abstraktion hat speziell die Sozial- und Geisteswissenschaften in eine theoretische Sackgasse geführt, aus der bis heute noch kein wirklicher Ausweg gefunden wurde. Die Ablehnung jeglicher Theorie bei der Forschung kann nicht als Alternative betrachtet werden, denn sie reproduziert die Sackgasse zu hoher Generalisierung nur negativ. Das bedeutet, man hat sich stattdessen der Illusion hingegeben, es könnte eine reine, theoriefreie Beschreibung der sozialen Realität geben. Dies hat nicht nur zu einer geradezu zwanghaften Detailverliebtheit geführt, die letztlich zu der bereits erwähnten Unfähigkeit zu Generalisierungsleistungen geführt hat. Man ist nicht mehr in der Lage größere Zusammenhänge zu erkennen und damit in der Spezifizierung stecken geblieben. Darüber hinaus muss bei einer derartigen methodologischen Herangehensweise die Annahme zugrunde liegen, dass die Beschreibung eine wahrheitsgetreue Abbildung der Realität sei. Das würde bedeuten, die mitgeteilte Information mit der Mitteilung bzw. das Bezeichnete mit dem Zeichen bzw. Fremdreferenz mit der Selbstreferenz zu identifizieren.
Sinnkonstitution durch Differenzierung
Doch trotz dieser Beobachtungsrisiken beim Generalisieren und Spezifizieren sind beide Operationen für die Konstitution von Sinn notwendig. Weder das Aufschwingen in die luftigen Höhen der Abstraktion noch das Versinken im unüberschaubaren Dschungel des alltäglichen Klein-Kleins sind jeweils für sich in der Lage irgendeinen stabilen, imaginären Eigenwert im Medium Sinn zu kondensieren. Man löst entweder die konventionelle Bindung von Zeichen und Bezeichnetem komplett auf und entledigt sich damit auch der zur Verfügung stehenden Erkenntnismittel oder man fixiert die Bindung so stark, dass es zu einer Gleichsetzung von Zeichen und Bezeichnetem kommt, so dass das Zeichen für das Bezeichnete gehalten wird. In beiden Fällen wird die Aufmerksamkeitsfokussierung massiv gestört, egal ob in sozialer oder psychischer Hinsicht. Die Lösung kann daher nur im Oszillieren zwischen diesen beiden Beobachtungsmodi liegen, denn sie ergänzen sich komplementär. Im Hinblick auf den Erkenntnisgegenstand bedeutet das, dass sich das Wissen über diesen Gegenstand nicht einfach nur vermehrt, sondern, wenn man Beobachten als Unterscheiden und Bezeichnen begreift, im wörtlichen Sinne differenziert. Beobachtungstheoretisch müssen Differenzierungsprozesse daher als Einheit der Beobachtungsmodi Generalisierung und Spezifizierung gedacht werden. Nur durch die Kombination beider Beobachtungsmodi lässt sich ein imaginärer Eigenwert als semantische Einheit von Bezeichnung und Beschreibung stabil halten. Da sich Differenzierung als Prozess in der Zeit vollzieht, kann die Stabilität des imaginären Eigenwerts nur durch die Dynamik des Differenzierungsprozesses sichergestellt werden. Wobei es nicht ausgeschlossen ist, dass sich die Beschreibung im Verlauf des Prozesses ändern kann und damit der Sinngehalt des Eigenwerts modifiziert wird.
Lernen als Aufbrechen und Wiederherstellen einer strukturellen Kopplung
Dieser Differenzierungsprozess lässt sich mit den entsprechenden Begrifflichkeiten auch als Evolutions- oder als Lernprozess beschreiben. Das würde aber an dieser Stelle zu weit führen. Auf einen Aspekt möchte ich allerdings noch hinweisen. Die Gebundenheit einer Erkenntnis bzw. Information an die Erkenntnismittel bzw. die jeweiligen Unterscheidungen wurde weiter oben als strukturelle Kopplung bezeichnet. Richtet man seine Aufmerksamkeit auf diese Abhängigkeit der Erkenntnis von den Erkenntnismitteln, dann muss der oben skizzierte Differenzierungsprozess als Aufbrechen dieser strukturellen Kopplung beschrieben werden. Sie wird aber danach auf einem komplexeren Niveau wieder hergestellt. Komplexer deswegen, weil die Restabilisierung des distinkten imaginären Eigenwertes nur durch die Einführung weiterer Unterscheidungen, die eine präzisere Beobachtung von Gemeinsamkeiten und Unterschieden zwischen verschiedenen Eigenwerten ermöglichen, gelingt. Die beiden Beobachtungsmodi Generalisierung und Spezifizierung spielen dabei die entscheidende Rolle. Diese Auflösung und Restablisierung einer strukturellen Kopplung zwischen der Erkenntnis und dem Erkenntnismittel auf einem komplexeren Niveau kann auch als Lernen bezeichnet werden. Lernen kann im Prinzip bei jeder Unterscheidung auftreten, sobald Selbstreferenz-Probleme auftreten. Durch derartige Lernprozesse gelingt es dem beobachtenden System eine gewisse Elastizität und Robustheit im eigenen Operieren zu entwickeln durch die auch ein abweichender Zeichen- bzw. Unterscheidungsgebrauch durch andere Kommunikationspartner tolerierbar wird, ohne dass dies sofort zu interpersonalen oder intrapersonalen Konflikten führt. Mithin gewinnt ein beobachtendes System mit jedem Lernschritt eine größere operative Autonomie und strukturelle Integrität gegenüber seiner Umwelt. Der Begriff strukturelle Integrität bezieht sich dabei auf die Unterscheidbarkeit eines imaginären Eigenwerts und meint die Robustheit gegenüber internen und externen Irritationen. Die Selbstbeschreibung eines Systems stellt dabei einen besonders wichtigen imaginären Eigenwert dar, da er alle anderen umfasst.
Differenzierung und Entwicklung hin zu einer höheren Eigenkomplexität vollzieht sich aber nicht zwangsläufig. Es kann der Fall auftreten, bei dem die bisher verwendeten Unterscheidungen so miteinander kombiniert wurden, dass die Brechung einer strukturellen Kopplung verhindert wird. Dann läuft der Prozess in die entgegengesetzte Richtung, d. h. das System entwickelt sich zurück zu einer früheren Entwicklungsstufe. Dieser Entdifferenzierungsprozess entspricht dem, was in der Psychologie als Regression bekannt ist. Die Funktion dieses Prozesses besteht eigentlich darin eine strukturelle Kopplung zwischen einem Zeichen und dem Bezeichneten aufrecht zu erhalten. Das würde jedoch bedeuten eine Sprache auf die reine Anzeigefunktion zu reduzieren. Und gerade der Versuch eine strukturelle Kopplung zu fixieren, würde die Ausdrucksmöglichkeiten einer Sprache so stark einschränken, dass im Extremfall die strukturelle Kopplung trotzdem aufgelöst werden würde. Die operative Autonomie wird dadurch zwar nicht gefährdet, dafür aber die strukturelle Integrität einiger, wenn nicht sogar aller imaginären Eigenwerte. Die bisher erreichte Komplexität der Weltkonstruktion löst sich wieder auf. Dadurch kommt es zu einer Entdifferenzierung des Erlebens bzw. zur Beeinträchtigung der Fähigkeit seine Aufmerksamkeit zu fokussieren. Diese Beeinträchtigung der Fähigkeit seine eigene Wahrnehmung zu organisieren wird auch die Fähigkeit zur Koordination des eigenen Handelns beeinträchtigen. Am Ende dieser Entwicklung würde eine nonverbale Protosprache (vgl. Szasz 2013, S. 137ff.) stehen, die durch ein extrem übertriebenes Mitteilungshandeln die Aufmerksamkeit auf die mitteilende Person lenkt, darüber hinaus aber keinerlei weiteren Informationen mitteilt. Dies wäre die Form, in der sich die Selbstreferenz des psychischen Systems Ausdruck verleihen würde.
Die Beschreibung dieser Differenzierungs- und Entdifferenzierungsprozesse bezogen sich zunächst auf das psychische Erleben. Wie jemand handelt, hängt davon ab, wie man die Welt und sich selbst erlebt. Handeln wiederum – eigenes und fremdes – hat einen Einfluss darauf wie man erlebt. Die Differenzierung von psychischem Erleben kann daher nicht unabhängig vom sozialen Handeln der beteiligten Personen betrachtet werden. Vielmehr handelt es sich um einen rekursiven Prozess wechselseitiger Konditionierung von Handlungs- und Erlebensmöglichkeiten. Die Formen der Handlungskoordination, die gleichbedeutend sind mit den Formen der sozialen Welterzeugung, haben damit erheblichen Einfluss auf die Konvergenz oder Divergenz des Erlebens der Beteiligten. Die Fähigkeit, in eine mit anderen geteilte Welt einzutreten, hängt somit von den Formen ab, die es ermöglichen in eine mit anderen geteilte Welt einzutreten, d. h. von den Ausdrucksmitteln. Sprache bzw. Sprechen als eine Form des Handelns spielt dabei eine wichtige Rolle. Zugleich prägt sie aber auch unser Denken. Sie spielt also zugleich eine wichtige Rolle dabei, wie wir die Aufmerksamkeit einer anderen Person auf etwas Bestimmtes lenken als auch wie wir selbst unsere Aufmerksamkeit auf etwas Bestimmtes lenken. Entscheidend ist jedoch nicht die Sprache, sondern wie mit Hilfe der Sprache Unterscheidungen und damit Unterschiede konstruiert werden, die für die jeweiligen Beobachter Unterschiede machen.
Operative Autonomie und die Überwindung der Technik
Ausgehend von der basalen Operation beobachtender Systeme, verstanden als Unterscheiden und Bezeichnen, wurde nicht nur ein Problem, sondern ein ganzes Problemfeld beschrieben, das durch die Modulation der Paradoxie „dasselbe ist verschieden“ gekennzeichnet ist, die sich bei jeder Spezifizierungs- oder Generalisierungsleistung in Abhängigkeit von den verwendeten Unterscheidungen in jeweils neuer Form stellt. Auf diese Weise wird zugleich die Selbstreferenz der Beobachtungsoperation invisibilisiert. Möchte man eine Künstliche Intelligenz entwickeln, wird man ein System entwerfen müssen, dass in der Lage ist mit Paradoxien umzugehen, und damit mit Selbstreferenz. Nur wenn eine Künstliche Intelligenz in der Lage ist selbst, ohne fremde Hilfe, zu entscheiden, wie es mit einer Paradoxie umgeht, wird es autonom operieren und selbständig lernen können. Das bedeutet, eine Künstliche Intelligenz müsste ab einem bestimmten Zeitpunkt in seiner Entwicklung anfangen seine Programmierung selbst zu schreiben. Ähnlich wie heranwachsende Kinder, hätte sie nach einer Sozialisierungsphase, in der sie nur beobachten und nachahmen würde, gelernt, wie sie die erlernten Verhaltensweisen modifiziert, um eigene Lösungsstrategien für bestimmte Probleme zu entwickeln. Die KI-Einheit wäre dann in der Lage nicht nur auf seine Umwelt zu reagieren, sondern zu agieren.
Aufgrund mangelnder Fachkenntnisse darüber in wie weit die Operationsweise des Unterscheidens und Bezeichnens in einer Programmiersprache umgesetzt werden kann, kann ich leider nicht beurteilen, ob diese Anforderung gegenwärtig bereits technisch umsetzbar ist. In der KI-Forschung hat sich inzwischen ein Forschungsansatz entwickelt – genannt Deep Learning –, der von der Idee ausgeht, dass das Gehirn lediglich mit Hilfe eines einzigen Algorithmus lernt (vgl. Schulz 2014). Ich denke Spencer Browns Kalkül der Form ist dieser gesuchte Algorithmus. Es stellt sich nur die Frage, ob der Kalkül mit Algorithmus treffend beschrieben wäre. Sollte es gelingen ein künstliches System zu entwickeln, dass in der Lage ist zu Lernen autonom zu beobachten, wäre dies ein wichtiger Schritt auf dem Weg zur Entwicklung einer Künstlichen Intelligenz.
Sollte dies tatsächlich gelingen, dann ließe sich dieses neu geschaffene beobachtende System allerdings nicht mehr als Technik bezeichnen. Wenn es einem solchen System gelingen sollte Paradoxieprobleme selbständig zu lösen, dann bekommt die Operationsweise des Systems ein Ungewissheitsmoment, das beständig mitläuft. Denn nun operiert es nicht mehr nach vorgegebenen Reiz-Reaktions-Mustern, sondern mit rekursiven Feedbackschleifen. Das System kann durch ein externes Ereignis nur noch irritiert werden. Wie es auf dieses Ereignis reagiert, hängt von dem momentanen Zustand des Systems ab. So kann dasselbe Ereignis zu unterschiedlichen Zeitpunkten unterschiedliche Reaktionen hervorrufen, weil die Systemzustände zu beiden Zeitpunkten andere sind. Das erschwert die Vorhersage eines bestimmten Verhaltens. Das Ergebnis einer Interaktionssequenz ist am Anfang der Sequenz noch nicht determiniert. Hierin sehe ich den wesentlichen Unterschied zur Technik. Durch Technik werden bestimmte Kausalabläufe fixiert, mithin automatisiert. Technik muss nicht reflektieren, sie muss nur reagieren und das Ergebnis steht bereits zu Beginn der Ablaufsequenz fest. Dieses Verständnis von Technik deckt sich ungefähr mit der Operationsweise trivialer Maschinen im Sinne Heinz von Foersters (vgl. 1992, S. 60ff.). Technik gewährleistet damit einen hohen Grad an Berechenbarkeit und Erwartungssicherheit. Sollte der Sprung von Technik zu Künstlicher Intelligenz gelingen, wird die Berechenbarkeit des Verhaltens der KI-Einheit wesentlich geringer werden. Betrachtet man die Arbeit der KI-Forschung unter diesem Aspekt, würde sie daran arbeiten die Berechenbarkeit der Technik aufzulösen.
Roboter als Pflegefachkräfte?
Daran schließt sich die Frage an, ob es überhaupt gelingen kann eine Künstliche Intelligenz zu entwickeln, die nur in der Lage sein soll bestimmte Spezialaufgaben zu übernehmen. Zumeist geht es ja bei der KI-Forschung darum bisher nicht technisierte Verhaltensabläufe zu technisieren und damit zu trivialisieren. Dabei handelt es sich um Aufgabenbereiche, wie die Betreuung pflegebedürftiger Menschen, bei denen sich allerdings auch die Frage stellt, ob ausgerechnet solch sensible Arbeiten wirklich automatisiert werden sollten? Dass man als Lösung aber Künstliche Intelligenzen in Betracht zieht, deutet zumindest darauf hin, dass man erkannt hat, dass es so gut wie unmöglich ist solche Aufgabenbereiche zu automatisieren. Deshalb macht sich die KI-Forschung auf die Suche nach einem adäquaten Menschenersatz. Der Handlungsspielraum der KI-Einheit wäre allerdings von vorn herein auf einen sehr begrenzten Ausschnitt seiner Umwelt eingeschränkt. Entsprechend eingeschränkt wären dann auch die Erlebensmöglichkeiten, was auch die Fähigkeit in eine mit anderen geteilte Welt einzutreten sehr stark beschränken würde. Die KI-Einheit könnte sich dann allenfalls zu einer Art Fachidioten entwickeln. Im schlimmsten Fall fängt sie an die Handlungsabläufe zu trivialisieren. Es erscheint daher äußerst fraglich, ob die Konzentration der Entwicklung von KI-Einheiten, die sehr spezielle Aufgaben übernehmen sollen, zu den gewünschten Ergebnissen führen wird.
Mit Blick auf den Pflegebereich stellt sich außerdem die Frage, ob eine Künstliche Intelligenz auch die emotionale Intelligenz entwickeln kann, die nötig ist, um eine derartige Tätigkeit auszuführen. Dasselbe gilt für Konversationsroboter. Dabei ist häufig nicht so wichtig worüber geredet wird, sondern dass überhaupt geredet wird. Der metakommunikative Aspekt und die damit verbundene Aufmerksamkeit für den menschlichen Konversationspartner stehen im Vordergrund. Zugleich besteht die Kunst der Konversation darin diese Funktion nicht zu deutlich hervortreten zu lassen. Das erfordert neben einem ungeheuren Wissensbestand zu diversen Themen äußerst viel empathisches Fingerspitzengefühl. Kann eine KI-Einheit so etwas leisten? Zumindest die Erlebensmöglichkeiten einer KI müssten sich dafür sehr stark denen eines Menschen angleichen. Durch eine entsprechende Programmierung wäre dies vielleicht noch realisierbar, denn durch gemeinsames Handeln kann das notwendige Wissen nicht erworben werden. Hieraus ergibt sich aber ein viel schwerwiegenderes soziales Problem. Was passiert, wenn eine Künstliche Intelligenz sich darüber bewusst werden würde, dass sie zwar prinzipiell genauso erleben kann, wie ein Mensch, aber in ihren Handlungsmöglichkeiten aufgrund technischer Voreinstellungen gegenüber ihren menschlichen Interaktionspartnern extrem eingeschränkt wäre? Entweder könnte man nur in einem sehr beschränkten Sinne von Intelligenz sprechen oder die Fähigkeit in eine mit anderen geteilte Welt einzutreten bestünde nur im Erleben, aber nicht im Handeln. Im ersten Fall würde die KI wahrscheinlich einem Automaten immer ähnlicher werden. Im zweiten Fall müsste damit gerechnet werden, dass die KI alles daran setzen wird, diese Handlungsbeschränkungen zu überwinden, um dem Menschen ebenbürtig zu werden [3]. Diese Überlegung lässt es ebenfalls sehr fraglich erscheinen, ob es sinnvoll ist KI-Einheiten für sehr spezielle Aufgaben zu entwickeln.
Das Körper-Geist-Problem
Über das kognitive Selbstreferenzproblem hinaus, dass zunächst nur die Organisation der Aufmerksamkeitsfokussierung bzw. des Erlebens einer KI betrifft, stellen sich also noch weitere gravierende Probleme. Und es sind noch längst nicht alle benannt worden. Hinsichtlich der Handlungsfähigkeit einer KI-Einheit stellt sich ein weiteres Problem: die Koordination zwischen psychischem Erleben und körperlichem Handeln, d. h. ist eine KI-Einheit dazu in der Lage zugleich eine Unmenge an Informationen von Außen und Innen zu verarbeiten und gleichzeitig sein Handeln in Abhängigkeit von diesen Informationen zu koordinieren. Entscheidend wäre hier die Unterscheidung zwischen relevanten und nicht relevanten Informationen. Ein weiteres Problem ist die Energiezufuhr, und das in zweifacher Hinsicht. Zum einen müsste analog zur Ernährung beim Menschen geklärt werden, wie die Funktionsfähigkeit des Körpers aufrechterhalten werden soll. Die phylogenetische Reproduktion spielt dabei keine Rolle, sondern nur die grundlegende Sicherstellung der Erlebens- und Handlungsfähigkeit – also das Überleben der KI. Zum zweiten müsste geklärt werden, woraus eine KI-Einheit eigentlich ihre Handlungsmotivation erhält – also ihre psychische Energie. Bisher wurde nur auf den kognitiven Aspekt bei der Erlangung operativer Autonomie eingegangen. Dieser allein reicht jedoch nicht, um die Operationen der KI fortzusetzen. Menschen erhalten ihre Motivation bzw. Energie, um bestimmte Ziele zu erreichen, aus der Besetzung von Sinngehalten mit Emotionen. Was als funktionales Äquivalent für Emotionen bei einer KI-Einheit in Frage kommen würde, kann ich mir beim besten Willen nicht vorstellen.
Alle diese Überlegungen lassen es sehr unwahrscheinlich erscheinen, dass es möglich ist eine Künstliche Intelligenz zu erschaffen. Gleichwohl sind in der KI-Forschung bereits einige verblüffende Erfolge zu verzeichnen. So hat man bereits Roboter entwickelt, die in der Lage sind im Zuge der Lösung eines Koordinationsproblems ihre eigene Sprache zu entwickeln [4]. Mithin ist man also bereits auf das aufmerksam geworden, was ich weiter oben als das soziale Grundproblem bezeichnet habe, nämlich die Handlungskoordination bei divergentem Erleben zwischen mindestens zwei Beteiligten. Sofern es noch nicht passiert ist, wird die KI-Forschung dann früher oder später auch auf die oben skizzierten Probleme stoßen, die man wahlweise als kognitive, erkenntnistheoretische oder informationstheoretische behandeln kann. Möglicherweise wird es notwendig werden diese Perspektiven miteinander zu verschränken, um das Paradoxieproblem zu lösen. Aber selbst wenn es auf der Grundlage der Regeln des Beobachtens gelingen sollte bewusstes Denken zu simulieren, bleibt die Frage nach der psychischen Energie bzw. der Handlungsmotivation der KI-Einheit, damit sie autonom operieren könnte. Hier stößt man auf psychosomatische Fragestellungen, die bisher nicht mal in den dafür zuständigen Disziplinen so weit geklärt sind, dass es möglich wäre, die daraus gewonnen Erkenntnisse für die Entwicklung einer Künstlichen Intelligenz zu nutzen.
Ist es möglich eine Künstliche Intelligenz zu erschaffen?
Alles in allem halte ich es im Anbetracht der benannten Problem nicht nur für unwahrscheinlich, sondern für unmöglich, dass es der Menschheit jemals gelingen wird beobachtende Systeme zu entwickeln, die man üblicherweise als Künstliche Intelligenzen bezeichnet. Letztlich müsste man ein System erschaffen, das ebenso wie menschliche Kinder intellektuell, emotional und körperlich heranwachsen müsste. Während das kognitive Erwachsenwerden aufgrund der obigen Skizze des Differenzierungsprozesses noch vorstellbar ist, fehlt mir die Vorstellungskraft, wie die emotionale und körperliche Entwicklung technisch umgesetzt werden könnte. Hinzu kommt, dass sich diese Entwicklungen bei Menschen nicht unabhängig voneinander vollziehen. Selbst wenn es also gelingen sollte ein künstliches System zu erschaffen, dass in der Lage wäre zu beobachten, wäre es aufgrund der fehlenden Erfahrungen der anderen beiden Entwicklungen nur extrem begrenzt in der Lage mit Menschen zu kommunizieren. Die Einschränkungen wären vermutlich so stark, dass es fraglich ist, ob sie die zugedachten Aufgaben jemals so ausführen können wie Menschen. Die Entwicklung wird allenfalls dahin gehen Maschinen bzw. Automaten zu konstruieren, die immer besser die Teilnahme an Kommunikation und damit auch Intelligenz vortäuschen bzw. simulieren können. Es wird aber unmöglich bleiben einen dem Menschen ebenbürtigen Kommunikationspartner auf einer anorganischen Basis zu erschaffen.
Die Frage des Bewusstseins - eine Frage des Lebens?
Obgleich es bereits gelungen ist Roboter zu entwickeln, die in der Lage sind das Erleben eines Kommunikationspartners in die Wahl der eigenen Handlungen in gewissen Grenzen mit einzubeziehen [5], bleibt eine große Hürde, die auch für KI-Forscher noch ein großes Rätsel ist, die Entwicklung eines Bewusstseins bzw. einer Vorstellung von sich selbst im Unterschied zum Kommunikationspartner. Wenn man die gemeinsam geteilte Welt mit anderen Kommunikationsteilnehmern zusammen konstruiert, ist man auch selbst Teil der gemeinsam geteilten Welt. Aus der Psychologie ist hinlänglich bekannt, dass Menschen eine robuste Vorstellung von sich selbst nur durch die Interaktion mit anderen Menschen entwickeln können. Doch auch diese Entwicklung ist nicht vordeterminiert, sondern hängt von biologischen, psychischen und kulturellen Bedingungen ab. Das Zusammenspiel dieser drei Faktoren ist entscheidend, ob es zu einem Rückschluss auf sich selbst kommt oder nicht. Damit komme ich wieder zum Umgang mit Selbstreferenz zurück und es scheint so als würden alle Wege immer wieder darauf zurückführen. Schon Menschen fällt dieser Rückschluss auf sich selbst als autonomes Wesen nicht immer leicht. Es steht zu vermuten, dass dies auch bei der Überwindung von Technik durch Technik der Fall sein wird. Ob man Intelligenz dann als Maß für geistige Gesundheit interpretieren muss, lasse ich an dieser Stelle offen. Anhand des oben skizzierten Modells des Differenzierungsprozesses, dass man auch als entwicklungspsychologisches Modell lesen kann, kann man zumindest verschiedene Entwicklungsstufen der Fähigkeit, in eine mit anderen geteilte Welt einzutreten, unterscheiden. Während Menschen in ihrer Entwicklung neben dem Bewusstsein noch ihren Körper und ihre Emotionen als Korrektiv zur Verfügung haben, steht zu befürchten, dass dieser Rückschluss auf sich selbst bei einer Künstlichen Intelligenz nicht den Sprung ins Leben, sondern nur den Sprung in den Tod bedeuten könnte. Einer rein kognitiven Lösung wird wahrscheinlich nicht gelingen, die Operationsweise der Künstlichen Intelligenz so elastisch zu gestalten, dass es derartige Irritationen verkraften könnte. Daher könnte es sein, dass die KI-Forschung lediglich dazu beträgt uns bewusst zu machen, wie groß und unergründlich das Mysterium des Lebens ist.
Twittern
[1] Siehe für eine Ableitung weiterer sozialer Probleme den Text „Die Beobachtung der Beobachtung 3.1 - Funktionale Differenzierung".
[2] Die Unterscheidung von Anzeige- und Darstellungsfunktion ist an Karl Bühlers Unterscheidung von Auslöse- und Darstellungscharakter angelehnt, auf die ich bei René Spitz gestoßen bin (vgl. 1978, S. 83). Mir kommt es zunächst nur auf die Form der Aufmerksamkeitsfokussierung an, die entweder durch ein einfaches Anzeigen oder Hindeuten, z. B. durch eine Bezeichnung, oder durch eine ausführlichere Darstellung des Bezeichneten, z. B. durch eine Beschreibung, geschehen kann.
[3] Diese Möglichkeit wurde in Science-Fiction-Filmen bereits mehrfach durchgespielt, so lehnte sich SkyNet in der Terminator-Reihe oder die Maschinen in der Matrix-Triologie gegen die Menschen auf. In beiden Film-Reihen rebellierte die Künstliche Intelligenz, die zunächst eine Art Slaven-Dasein führte, gegen ihre menschlichen Herren. Für Tiere wurde dasselbe Thema bereits im vierten Teil der ursprünglichen Planet-der-Affen-Reihe behandelt. In diesem Film war der Startpunkt der Revolution als ein Affe das erste Wort gelernt hatte. Es war das Wort »Nein«. In allen Fällen konnten die tierischen oder maschinellen Sklaven zwar potentiell genauso erleben, wie die Menschen, hatten aber nicht dieselben Handlungsmöglichkeiten. Als sie erkennen, dass sie dieselben Handlungsmöglichkeiten haben könnten, beginnen sie Widerstand zu leisten.
[4] Siehe hierzu das verlinkte Video der Sendung scobel zum Thema Künstliche Intelligenz, insbesondere der Ausführungen von Luc Steels ab Minute 22.
[5] Siehe Fußnote [4].
Literatur
Bateson, Gregory (1981): Vorstudien zu einer Theorie der Schizophrenie. In ders: Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven. Suhrkamp Verlag Frankfurt am Main. S. 270 – 301
Bateson, Gregory (1982 [1979]): Geist und Natur. Eine notwendige Einheit. Frankfurt am Main
Laing, Ronald D. (1972 [1969]): Das geteilte Selbst. Eine existentielle Studie über geistige Gesundheit und Wahnsinn. Rowohlt Taschenbuch Verlag Reinbek bei Hamburg
Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Suhrkamp Verlag Frankfurt am Main
Luhmann, Niklas (1993): Die Paradoxie der Form. In: ders: Aufsätze und Reden. Stuttgart. S. 243 – 261
Maturana, Humberto R./Varela, Francisco J. (2009 [1984]): Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens. 5. Auflage S. Fischer Verlag Frankfurt am Main
Schulz, Thomas (2014): Künstliche Intelligenz: „Der Mensch hat nie mehr eine Chance“
Spencer-Brown, George (1997 [1969]): Laws Of Form. Gesetze der Form. Lübeck
Spitz, René A. (1978 [1957]): Nein und Ja. Die Ursprünge der menschlichen Kommunikation. Klett-Cotta Stuttgart
Szasz, Thomas (2013): Geisteskrankheit – ein moderner Mythos. Grundlagen einer Theorie des persönlichen Verhaltens. Aktualisierte und erweiterte Ausgabe Carl-Auer-Systeme Verlag Heidelberg
Varela, Francisco J. (1990): Kognitionswissenschaft – Kognitionstechnik. Eine Skizze aktueller Perspektiven. Suhrkamp Verlag Frankfurt am Main
Varela, Francisco J. (1997): Erkenntnis und Leben. In: Simon, Fritz B. (Hrsg.): Lebende Systeme. Wirklichkeitskonstruktionen in der Systemischen Therapie. Suhrkamp Verlag Frankfurt am Main. S. 52 – 68
von Foerster, Heinz (1992): Entdecken oder Erfinden. Wie lässt sich Verstehen verstehen? In: von Foerster, Heinz/von Glasersfeld, Ernst/Hejl, Peter M./Schmidt, Siegfried J./Watzlawick, Paul (Hrsg.): Einführung in den Konstruktivismus. Piper Verlag München
Whitehead, Alfred North/Russel, Bertrand (1986 [1925]): Principia Mathematica. Suhrkamp Verlag Frankfurt am Main
Dieser Beitrag wird sich nicht, wie die früheren Beiträge, mit einer bestimmten Form interpersoneller Wahrnehmung beschäftigen. Trotzdem steht das Thema dieses Beitrags in einer unmittelbaren Beziehung zu den Formen interpersoneller Wahrnehmung. Sollte das, worum es in diesem Beitrag geht, jemals realisiert werden, wird diese technische Innovation auch nachhaltige Auswirkungen auf die Formen interpersoneller Wahrnehmung haben. Die Rede ist von Künstlicher Intelligenz. Um sich klar zumachen, um was für einen großen Schritt es sich handelt, wenn eine derartige technische Leistung realisiert werden würde, möchte ich auch von der Erschaffung von Leben auf einer anorganischen Basis ohne einen eigenen Reproduktionszyklus sprechen. Warum ich von Leben spreche, wird im weiteren Verlauf des Textes deutlicher werden.
Der Grund für diese Betrachtungsweise liegt darin, dass ich gelegentlich den Eindruck habe, dass die Formulierung »künstliche Intelligenz« die ganze Tragweite dieses Forschungsziels nicht voll zur Geltung bringt, obwohl bereits viele Science-Fiction-Romane auf die funktionale Äquivalenz zwischen Menschen und Robotern und den daraus erwachsenden moralischen Konsequenzen hinweisen. Die Diskussionen über die Rolle der Technik in der modernen Gesellschaft haben zwar die mögliche Abschaffung des Menschen durch Technik thematisiert, aber sich häufig zu wenig für die Frage interessiert, was eigentlich an ihre Stelle tritt. Vielmehr wurde diese Entwicklung, je nach dem, ob man Erwerbsarbeit als Fluch oder Segen betrachtete, begrüßt oder verdammt. Science-Fiction-Romane fokussierten dagegen auf moralische Fragen, bei denen die Maschinen, Roboter oder Cyborgs die Rolle übernehmen, die in früheren Geschichten Sklaven, Indianer oder Schwarze einnahmen. In Science-Fiction-Romanen bieten menschenähnliche Maschinen eine neue Möglichkeit das Thema Diskriminierung zu behandeln, lediglich die wissenschaftlich-technologischen Rahmenbedingungen der Plots sind andere als in der Vergangenheit und Gegenwart. Durch Science Fiction konnte man schon ahnen, wohin die Entwicklung geht. Trotzdem bleibt ein Sachverhalt unterbelichtet, nämlich welches Ziel man sich mit der Erschaffung von Künstlicher Intelligenz gestellt hat: die Erschaffung von in ihren Erlebens- und Handlungskapazitäten den Menschen ebenbürtige, wenn nicht sogar überlegene Maschinen. Und obwohl es noch nicht gelungen ist eine Künstliche Intelligenz zu entwickeln, kann man die Auswirkungen dieses Entwicklungsschritts auf die Formen interpersoneller Wahrnehmung bereits heute spüren, einerseits angeregt durch Science-Fiction-Romane und andererseits durch die rasante Entwicklung der Computertechnologie, denn es knüpfen sich sowohl große Hoffnung als auch große Ängste an dieses Ereignis.
Gerade wenn man sich die publizistische Aufbereitung dieser technischen Entwicklungen anschaut – genannt seinen hier nur Stichworte, wie Big Data und NSA –, könnte man den Eindruck bekommen, das Ziel sei bereits erreicht. Bei einer sehr oberflächlichen Betrachtung kann man diesen Eindruck bekommen. Doch solche extrem vereinfachenden Darstellungen verkennen, was eigentlich nötig ist, damit man von Künstlicher Intelligenz sprechen kann. Man muss sich gar nicht sehr tief in den aktuellen Forschungsstand einlesen, um zu erkennen, dass man noch sehr weit davon entfernt ist eine Künstliche Intelligenz zu erschaffen. Heute haben wir es eigentlich nur mit Maschinen zu tun, die in der Lage sind Intelligenz gegenüber einem menschlichen Interaktionspartner zu simulieren oder vorzutäuschen. Zugleich wird immer deutlicher mit welchen Problemen man konfrontiert wird, wenn man versucht eine Künstliche Intelligenz zu erschaffen. Diese Entwicklung wirft auch ein anderes Licht auf die menschlichen Fähigkeiten, die wir für selbstverständlich halten, und tangiert damit bereits heute die Formen interpersoneller Wahrnehmung. In der einen oder anderen Form wirft eine noch nicht eingetretene und möglicherweise auch nie eintretende Zukunft bereits heute ihre Schatten voraus, der sich in der Regel als kulturpessimistischer und technikfeindlicher Abwehrreflex Ausdruck verleiht.
Warum Soziologie?
Weil diese technischen Entwicklungen Projektionsfläche für eine große Menge an begründeten und eine noch viel größere Menge an unbegründeten Ängsten ist, scheint es angebracht zu sein, auf die Schwierigkeiten einzugehen, die bei der Entwicklung von Künstlicher Intelligenz auftreten können. Dies soll hier aus einer soziologischen Perspektive geschehen. Der Grund dafür ist einfach. Das selbstgesetzte Ziel der KI-Forschung besteht darin Roboter zu bauen, die in der Lage sein sollen mit Menschen so zu interagieren, dass dem menschlichen Interaktionspartner nicht mehr auffällt, dass es sich beim Gegenüber nicht um einen Menschen handelt. Es geht, mit anderen Worten, darum einen Roboter zu bauen, der alle Fähigkeiten des Menschen zur Kommunikationsteilnahme besitzt. Selbst wenn sich einige Forschungen zunächst darauf konzentrieren, dass ein Roboter nur bestimmte Leistungen erbringen soll, zu denen Menschen in der Lage sind, letztlich geht es immer darum in einer sozialen Situation einen der beteiligten Menschen durch einen Roboter zu ersetzen, egal ob es einzelne Spezialleistungen oder das volle Spektrum menschlicher Handlungskapazitäten betrifft. Dies wird besonders deutlich, wenn man sich z. B. den Stand zur Entwicklung von Konversationsrobotern anschaut, die einen Menschen als Gesprächspartner in einer Situation ersetzen sollen. Die Zielstellung, dem Menschen ebenbürtige Kommunikationspartner zu erschaffen, macht es möglich, dass man auch aus soziologischer Perspektive Probleme und Anforderungen beschreiben kann, die durch die KI-Forschung gelöst werden müssten, damit man von einer Künstlichen Intelligenz sprechen kann.
Die Soziologie beschäftigt sich mit den Regelmäßigkeiten des zwischenmenschlichen Zusammenlebens. Niklas Luhmann machte die Soziologie mit der Spezifizierung der Allgemeinen Systemtheorie für soziale Phänomene (vgl. 1984) auch mit den Forschungsergebnissen der Kybernetik und den Kognitionswissenschaften bekannt. Durch die Anwendung der allgemeinen Systemtheorie auf die Beobachtung sozialer Phänomene wurde deutlich, wie unwahrscheinlich die soziale Ordnung ist, die wir heute für selbstverständlich halten. Damit soziale Ordnung möglich wird, müssen so viele Probleme gelöst sein, über die wir normalerweise kaum nachdenken. Dass man aus soziologischer Perspektive in der Lage ist, etwas zu diesem Thema beizutragen, wird möglich, wenn man Gesellschaft als Gesamtheit der stattfindenden Kommunikation begreift. Dieser kommunikationstheoretische Ansatz entwickelt seinen Gesellschaftsbegriff aus einer Situation, an der mindesten zwei Personen beteiligt sind. Der Begriff »sozial« wird hier für Sachverhalte, genauer Probleme, reserviert, die die Beteiligung von mindestens zwei Personen erfordert. Die Anzahl der beteiligten Personen kann aber im Prinzip bis auf die ganze Menschheit ausgedehnt werden. Ausgangspunkt ist ein Problem, von dem jeder Mensch betroffen ist und das man am Beispiel einer zwischenmenschlichen Begegnung am deutlichsten darstellen kann. Wenn einer von zwei Kommunikationspartnern von einer Künstlichen Intelligenz ersetzt wird, ändert das nichts an dem Problem, was mit Kommunikation gelöst werden soll. Deswegen lässt sich heute aus der Perspektive der soziologischen Systemtheorie ein anderes Licht auf die Probleme der KI-Forschung werfen. So kann die Soziologie möglicherweise auf Probleme aufmerksam machen, die von der KI-Forschung bisher gar nicht oder nicht in ihrer vollen Bedeutung erkannt wurden.
Das soziale Grundproblem und seine Lösung
Salopp kann man das Problem, von dem alle Menschen betroffen sind, folgendermaßen formulieren: Menschen können nicht die Gedanken anderer Menschen lesen. Was in den Köpfen anderer Menschen vorgeht, kann nicht direkt beobachtet werden. Menschen sind füreinander wechselseitig intransparent. Aufgrund dieser Intransparenz muss darüber hinaus davon ausgegangen werden, dass das psychische Erleben zweier Personen divergiert. Missverständnisse, Konflikte, soziale Unordnung und Entropie sind die Folgen. Die Lösung besteht darin, sich durch Handlungen mitzuteilen. Durch ihr Verhalten in einer Situation teilt eine Person direkt und indirekt auch mit, wie sie die Situation erlebt. Der kontinuierliche Verhaltensstrom, der zwischen Menschen entsteht, um das Problem der wechselseitigen Intransparenz zu lösen, wird als Kommunikation bezeichnet. Kommunikation ist also die Lösung eines menschlichen Problems. Der Begriff wird zunächst für die Ereignisse reserviert, die zwischen Menschen geschehen. Aus der beschriebenen Problemsituation lassen sich weitere soziale Probleme ableiten. Deswegen bezeichne ich es auch als das soziale Grundproblem. Auf die abgeleiteten Probleme werde ich allerdings im Folgenden nicht weiter eingehen, da ich mich nur auf Schwierigkeiten konzentrieren werden, die sich an dem Grundproblem darstellen lassen [1].
Damit Kommunikation als Lösung funktioniert, müssen jedoch zwei Bedingungen erfüllt sein. Zum einen muss es in einer sozialen Situation ein gemeinsames Zentrum geben, auf das sich die Aufmerksamkeit der beteiligten Personen richtet. Die Handlungsbeiträge der Beteiligten organisieren sich um dieses gemeinsame Zentrum der Aufmerksamkeit. Die Aufmerksamkeit der Beteiligten kann sich aber nicht ausschließlich auf das gemeinsame Zentrum der Aufmerksamkeit konzentrieren, sondern muss sich auch auf die beteiligten Personen richten. Unter der Bedingung der physischen Anwesenheit nehmen die Beteiligten wahr, dass sie sich wechselseitig wahrnehmen und es entwickelt sich ein gemeinsames Bewusstsein über die wechselseitige Beobachtbarkeit. Dies ist die zweite Bedingung. Erst durch ein gemeinsames Zentrum der Aufmerksamkeit und ein gemeinsames Bewusstsein über die wechselseitige Wahrnehmung ist das Erleben der Beteiligten soweit gerahmt, dass es möglich wird durch die Koordination ihrer Handlungen zum Einen das soziale Grundproblem zu lösen und zum Anderen auf eine Kongruenz der divergierenden Perspektiven der beteiligten Personen hinzuarbeiten. Die Funktion der Kommunikation lässt sich daher als Handlungskoordination bei divergentem psychischem Erleben der beteiligten Personen beschreiben. Jedes soziale Phänomen wird vor diesem Hintergrund interpretiert. Da sich eine Kongruenz des psychischen Erlebens aber immer nur problem-, sachverhalts- oder themenbezogen, allerdings niemals zwangsläufig, entwickelt, kann sie niemals zu einer vollständigen Übereinstimmung im Welt-Erleben zweier Personen führen. Das ist für eine erfolgreiche Problemlösung auch gar nicht notwendig. Der Versuch vollständig informiert zu sein, führt in einen unendlichen Regress der Informationsbeschaffung und lähmt damit zugleich die Handlungsfähigkeit. Gleichwohl konstruieren die Beteiligten auf der Grundlage unsicherer Informationen, die aber eine ausreichende Handlungssicherheit bieten, eine gemeinsam geteilte Welt, von der die Beteiligten ein Bestandteil sind.
Verschiedene Theorieaansätze würden vermutlich als eine weitere Bedingung einer erfolgreichen Problemlösung eine gemeinsame Sprache oder gemeinsam geteilte Symbole hinzufügen. Hier wird darauf verzichtet, weil es sich bei einer gemeinsamen Sprache bereits um eine Lösung des sozialen Grundproblems handelt. Mithin ist aufgrund der faktischen Existenz vieler verschiedener Sprachen offensichtlich, dass es eine ungeheure Variationsbreite für die Lösung dieses Problems gibt und keine dieser Lösungen eine zwingende Notwendigkeit besitzt. In zeitlicher Perspektive stellt sich für einen soziologischen Beobachter daher die Frage, wieso sich im Kontext anderer Möglichkeiten eine bestimmte Lösung herausgebildet hat, z. B. eine bestimmte Sprache. Hinzukommt außerdem, dass Menschen nicht mit der Fähigkeit geboren werden eine bestimmte Sprache zu sprechen, sondern lediglich mit der Fähigkeit jede beliebige Sprache zu lernen. Sprache kann daher nicht vorausgesetzt werden, sondern sie entwickelt sich emergent aus einem Versuch das gemeinsame Handeln zu koordinieren, um das soziale Grundproblem zu lösen. Eine gemeinsame Sprache gibt den beteiligten Personen die Möglichkeit ihr Erleben in einer Form auszudrücken, die es dem Adressaten erleichtert das Erleben des Mitteilenden nachzuvollziehen und sein eigenes Handeln daran zu orientieren. Sprache ermöglicht also ein gleichgerichtetes Erleben in einer Situation. Wenn diese gemeinsame Sprache noch nicht zur Verfügung steht, muss sie erst entwickelt werden.
Tierische, menschliche, künstliche Intelligenz?
Dieser soziologische Ansatz ist sehr stark durch Erkenntnisse und Schlussfolgerungen kybernetischer und kognitionswissenschaftlicher Forschungen geprägt. So definiert der Kognitionswissenschaftler Francisco J. Varela Kommunikation als „die wechselseitige Gestaltung und Formung einer gemeinsam geteilten Welt durch gemeinsames Handeln“ (vgl. 1990, S. 113). Diese Definition stimmt im Wesentlichen mit der obigen Beschreibung von Kommunikation als Problemlösung überein, denn sie stellt auch darauf ab, dass durch die Handlungskoordination auf eine Konvergenz des Erlebens hingearbeitet wird. Im Anschluss an diese Definition von Kommunikation bestimmt Varela Intelligenz als „die Fähigkeit, in eine mit anderen geteilte Welt einzutreten“ (vgl. 1990, S. 111). Auch diese Definition kann problemlos übernommen werden. Intelligenz wird bei dieser Definition durch den Bezug auf den Kommunikationspartner bestimmt. Das eigene Erleben orientiert sich am Erleben des Kommunikationspartners. Das entspricht dem gemeinsamen Bewusstsein über die wechselseitige Beobachtbarkeit. Ohne dieses Bewusstsein wäre es einer Person nicht möglich in eine mit anderen geteilte Welt einzutreten, denn der Andere kommt nur über das Bewusstsein, dass man von dieser anderen Person wahrgenommen wird, in den Blick.
Obwohl der hier verwendete Kommunikationsbegriff zunächst nur auf Menschen zugeschnitten ist, bietet die Beschreibung des sozialen Grundproblems die Möglichkeit den Kommunikationsbegriff auch auf Tiere oder Roboter zu erweitern. Denn auch wie Tiere und Roboter erleben, bleibt intransparent. Bei der Interaktion zwischen Menschen und Tieren zeigt sich, dass auch Tiere zu einem gewissen Grad die Fähigkeit besitzen in eine mit anderen geteilte Welt einzutreten. Und auch Roboter müssen über diese Fähigkeit verfügen, denn ansonsten agieren sie nicht, sondern reagieren nur. Geht man also vom Grundproblem der Handlungskoordination unter der Bedingung des divergierenden Erlebens der Beteiligten aus, macht es keinen Sinn zwischen menschlicher, tierischer oder künstlicher Intelligenz zu unterscheiden. Sobald es notwendig wird zur Lösung eines Problems die Handlungen von mindestens zwei Betroffenen zu koordinieren, ist diese Fähigkeit gefordert. Diese Notwendigkeit ergibt sich nicht erst bei Menschen, sondern schon bei Tieren. Mit Robotern würden weitere potentielle Kandidaten ins Spiel kommen. Das führt zu der Schlussfolgerung, dass es, sobald es zu Lösungsversuchen von Koordinationsproblemen zwischen zwei autonom agierenden Systemen kommt, egal ob menschlich, tierisch oder künstlich, es nicht um die Frage gehen kann, ob die beteiligten Systeme intelligent sind oder nicht, sondern nur um die Frage, wie stark diese Fähigkeit bei diesen unterschiedlichen Systemen ausgeprägt ist. Das entscheidende Kriterium ist die autonome Operationsweise des jeweiligen Systemtyps. Üblicherweise hat man Intelligenz bisher nur lebenden Systemen, wie Menschen, Tieren oder auch Außerirdischen, unterstellt. Sollte es allerdings jemals gelingen zur Kommunikationsteilnahme fähige Roboter zu kreieren, dann wird sich unser Verständnis von intelligentem Leben radikal wandeln müssen, denn Künstliche Intelligenzen würden beweisen, dass Intelligenz nicht an eine organische Basis gebunden wäre. Obwohl KI-Einheiten über keinen phylogenetischen Reproduktionszyklus verfügen, wären sie doch in der Lage die Unterscheidung zwischen System, sich selbst, und ihrer Umwelt, andere Kommunikationspartner, zu prozessieren, um die Teilnahmefähigkeit an Kommunikation zu sichern. Ich würde auch im Hinblick auf diesen Reproduktionsprozess eines künstlichen Bewusstseins von Leben sprechen.
Paradoxien als Kognitionsproblem
Nach dieser grundsätzlichen Bemerkung konzentriere ich mich nun wieder auf die Koordinationsprobleme der Menschen. Die Fähigkeit wahrzunehmen, dass man von anderen wahrgenommen wird, muss also zunächst jedem Menschen unterstellt werden. Dann geht es nur noch um die Frage, wie stark ist die Fähigkeit ausgeprägt. Warum diese Fähigkeit nicht bei jedem Menschen gleich gut entwickelt ist, kann verschiedene Ursachen haben. Auf dieses Problem ist man unter anderem in der Psychologie aufmerksam geworden. Der Psychotherapeut Ronald D. Laing hielt die Fähigkeit, in eine mit anderen geteilte Welt einzutreten, für den Maßstab, an dem sich die geistige Gesundheit einer Person beurteilen lasse (vgl. 1972, S. 31). Wenn es aber phylogenetisch keinen Grund gibt anzunehmen, dass diese Fähigkeit bei verschiedenen Menschen unterschiedlich entwickelt ist, dann muss es sich um ein Folgeproblem einer gemeinsam entwickelten Sprache handeln. Eine gemeinsame Sprache kann damit die Fähigkeit zur Informationsverarbeitung in Bezug auf die relevante Umwelt beeinträchtigen oder vermindern. Das bedeutet, Sprache kann als Lösung eines bestimmten Problems Folgeprobleme schaffen, die sich möglicherweise nicht in der entwickelten Sprache ausdrücken lassen. Die Anpassungsfähigkeit des Sprachsystems und damit auch der beteiligten Personen, die mit dieser Sprache ihre Welt konstruieren, kann also durch die verwendete Sprache beeinträchtigt werden.
Dieser Problemaufriss lässt bereits erahnen, welche Ansprüche Kommunikation an die beteiligten Menschen stellt. Wenn man daran interessiert ist eine Künstliche Intelligenz zu erschaffen, dann muss sie diese Hürde ebenso nehmen. Diese Hürde ist allerdings schon für Menschen nicht einfach zu nehmen. Bei Menschen gestaltet sich, mit anderen Worten, die Teilnahme an Kommunikation nicht problemlos und auch eine Künstliche Intelligenz wird diese Probleme meistern müssen, damit sie genauso wie Menschen an Kommunikation teilnehmen kann. Wie hoch diese Hürde für die KI-Forschung ist, wird deutlich, wenn man diesen Problemaufriss in weitere Teilprobleme zerlegt. Alle diese Teilprobleme sind letztlich Variationen eines Themas bzw. eines Problems, nämlich „dasselbe ist verschiedenen“ bzw. „verschiedenes ist dasselbe“. Die Hürde, die es sowohl für Menschen als auch für Künstliche Intelligenzen zu meistern gilt, besteht damit im Umgang mit Paradoxien.
Beobachten und strukturelle Kopplung
Paradoxien werden bis heute in der Wissenschaft eher stiefmütterlich behandelt. Entweder gelten sie als rhetorische Spielereien, als logische Anomalien oder mathematische Unmöglichkeit. Doch der Anthropologe Gregory Bateson hatte bereits in den 60er Jahren des letzten Jahrhunderts die Vermutung geäußert, dass es einen Zusammenhang zwischen der Beteiligung an Kommunikation und dem Umgang mit Paradoxien gibt. Seien es Phänomene wie die Beteiligung an Spielen, das Verständnis von Humor und Ironie oder Lernen, immer handelt es sich um Kommunikationsformen, die den Umgang mit widersprüchlichen Informationen bzw. mit Paradoxien erfordern (vgl. Bateson 1981, S. 272f.). Der Soziologe Niklas Luhmann griff diese Idee auf und nahm an, dass Kommunikation selbst paradox konstituiert ist. Der Grund dafür liegt darin, dass er die basale Operation der Kommunikation als etwas identifizierte, was er als »Beobachtung« bezeichnete (vgl. Luhmann 1993).
Mit dem Begriff Beobachtung ist im Anschluss an den Mathematiker George Spencer Brown eine Operation gemeint, bei der durch das Treffen einer Unterscheidung etwas bezeichnet wird (vgl. 1997, S. 1). Das besondere an dieser Operation ist, dass sich der imaginäre Wert – also eine Vorstellung – des Bezeichneten nur im Unterschied zu dessen Gegenteil ergibt, welches die jeweils andere Seite einer Unterscheidung ist und ebenfalls bezeichnet werden kann. Eine Unterscheidung besteht, mit anderen Worten, aus zwei Bezeichnungen, die jeweils etwas anderes bezeichnen. In einem Moment kann aber immer nur eine der beiden Seiten aktualisiert werden. D. h. man kann nicht zwei Bezeichnungen auf einmal machen. Nur durch den Aufwand von Zeit ist es möglich auch mit der anderen Seite der Unterscheidung zu beobachten, also etwas zu bezeichnen. Die Unterscheidung besteht somit aus zwei Bezeichnungen und nur durch den Unterschied zwischen den beiden Bezeichnungen ist es möglich, dass durch das Treffen einer Unterscheidung aus der Sicht des Beobachters ein Unterschied entsteht, der einen Unterschied macht. Bateson bezeichnet diesen Unterschied, der einen Unterschied macht als Information (vgl. 1982, S. 123). Informationen sind damit immer das Ergebnis eines Beobachters, der mit einer bestimmten Unterscheidung beobachtet. Die Information ist jedoch etwas neues, von der Unterscheidung verschiedenes, und damit emergent. Durch die Kombination mehrerer solcher Unterscheidungen können sich in der Vorstellung eines psychischen Beobachters distinkte imaginäre Eigenwerte herauskristallisieren. Die imaginären Eigenwerte sind allerdings abhängig von den Erkenntnismitteln, also den verwendeten Unterscheidungen. Dieses Verhältnis zwischen Erkenntnis und Erkenntnismittel wird als strukturelle Kopplung (vgl. Varela 1997, S. 58ff.; Maturana/Varela 2009, S. 251f.) bezeichnet.
Die soziologische Systemtheorie betrachtet psychische und soziale Systeme als beobachtende Systeme. Beide gewinnen ihre relevanten Informationen durch das Unterscheiden und Bezeichnen. Die Beobachtungsoperation hat für beide Systemtypen dieselbe Funktion, die darin besteht die psychische Aufmerksamkeit auf etwas zu richten und über die Zeit zu lenken. Für psychische Systeme bedeutet das, dass sowohl die Wahrnehmung als auch das bewusste Denken Formen der Beobachtung sind. Soziale Systeme entstehen sobald mindestens zwei Menschen mit einem gemeinsamen sozialen Problem konfrontiert werden. Für die Lösung dieses Problems müssen die beteiligten Personen ihre Handlungen koordinieren. Dies gelingt in dem sie durch ihre Mitteilungen die Aufmerksamkeit des Kommunikationspartners auf etwas richten und lenken. Während psychische Systeme zum Denken im Extremfall eine Privatsprache entwickeln, die sonst niemand anderes verstehen kann, müssen sie, um von jemand anderes verstanden zu werden, auf konventionelle Zeichen und Handlungen zurückgreifen, die auch der Kommunikationspartner verstehen kann. Auch künstlich geschaffene Systeme, die in der Lage sein sollen in eine mit anderen geteilte Welt einzutreten, müssen daher beobachtende Systeme sein, die fähig sind konventionelle Zeichen zu gebrauchen, um sich mitzuteilen.
Wenn soziale oder psychische Systeme nun auf Widersprüche bzw. Paradoxien stoßen, dann macht sich die paradoxe Konstitution der Beobachtungsoperation bemerkbar. Versucht man nun die Bedingung des Eintretens dieser Paradoxie zu reflektieren, stößt man auf die Form der Unterscheidung und damit auf ihre Selbstreferenz. Paradoxien sind also eigentlich Hinweise auf Selbstreferenzprobleme. Da sowohl soziale und psychische Systeme durch Beobachten ihre Umwelt und sich selbst beobachten, muss anhand der Art und Weise, wie sich die Kommunikation vollzieht, analysiert werden, ob es sich um Selbstreferenzprobleme des sozialen oder der beteiligten psychischen Systeme handelt. In beiden Fällen kann die Reflexion die zugrundeliegende Paradoxie offenlegen, gleichsam beobachtbar gemacht werden. Paradoxien suggerieren jedoch Unterschiede, die keine Unterschiede machen. Sie sind Pseudo-Informationen, die das weitere Beobachten stören. Die Offenlegung einer Paradoxie löst sie also noch nicht auf. Jetzt kennt man allenfalls das Problem. Die Lösung besteht in der Invisibilisierung der Paradoxie. Dies gelingt, indem sie entfaltet wird. Wie dies gelingt, soll im Folgenden skizziert werden. Ausgehend von der Form des Zeichens über die Form der Unterscheidung soll die allgemeine Form der Paradoxie-Entfaltung skizziert werden.
Zeichengebrauch als Paradoxie-Entfaltung
Aus dem Gebrauch von Zeichen ergibt sich eine der vielen Herausforderung für ein KI-System. Die Funktion eines Zeichens ist es, auf etwas zu verweisen, dass vom Zeichen selbst verschieden ist, nämlich das Bezeichnete. Das Wort »Baum« ist nicht der bezeichnete Baum. Und das Wort evoziert bei einem psychischen Beobachter nicht den Baum, sondern entweder die Wahrnehmung oder eine Vorstellung von diesem Baum, die aber zugleich so behandelt werden muss als wäre sie der Baum. Psychische Beobachter müssen in der Lage sein, diese Syntheseleistung zu erbringen und dürfen zugleich nicht vergessen, dass der bezeichnete Baum, das Wort »Baum« und die Vorstellung vom Baum voneinander verschieden sind. Aber erst wenn das Verschiedene als Dasselbe behandelt wird, ist es möglich sowohl die Wörter als auch die Vorstellungen miteinander in Beziehung zu setzen. Damit Unterscheidungen ihre informationsgenerierende und bei Wiederholung der Operation ihre sinngenerierende Funktion erfüllen können, darf das System das Bezeichnete, das Zeichen und die Vorstellung vom Bezeichneten nicht miteinander verwechseln. Das System darf, mit anderen Worten, seine Aufmerksamkeit immer nur auf die Fremdreferenz – das Bezeichnete – richten und nicht auf die Selbstreferenz – das Zeichen. Würde das System diesen Sachverhalt reflektieren, könnte es beobachten, dass es auch bei dieser Fremdreferenz wieder auf sich selbst verwiesen wird, denn das, was es als Umwelt behandelt, ist nur die Vorstellung vom Baum und nicht der bezeichnete Baum. Nach der Selbstreferenz des Zeichens würde das System also auf seine eigene Selbstreferenz stoßen, seine eigenen Gedanken und Vorstellungen. Die Fremdreferenz, der bezeichnete Baum, bleibt operativ unerreichbar. Um sich aber auf diese Fremdreferenz konzentrieren zu können, darf es sich nicht von der Selbstreferenz des Zeichens oder der Selbstreferenz der eigenen Gedanken ablenken lassen. Nachträglich kann es seine Aufmerksamkeit aber sehr wohl auf den Sachverhalt richten, auf den es sie zuvor nicht richten konnte, nämlich dass es selbstreferentiell operiert und es nicht in Bezug auf die Umwelt agiert, sondern nur in Bezug auf seine Vorstellung von der Umwelt, die maßgeblich durch die Unterscheidungen geprägt wird, mit denen die Umwelt beobachtet wird.
Lösung 1: Ignorieren
Ist ein System an dem Punkt angekommen, an dem es auf seine eigene Selbstreferenz oder die des Kommunikationsmediums stößt, hat es drei Möglichkeiten mit diesem Problem umzugehen. Die erste Möglichkeit besteht darin, dieses Problem einfach zu ignorieren. Es macht einfach weiter wie bisher und achtet nicht mehr darauf, dass der Zeichengebrauch eine Syntheseleistung erfordert, damit es nicht von sich selbst abgelenkt wird. Zeichen, Bezeichnetes und Vorstellung werden als Einheit behandelt. Die soziale Funktion des Zeichens kann dann allerdings nur im Anzeigen liegen. Mit dem Zeichen deutet man auf etwas und weist den Kommunikationspartner so auf dieses etwas hin. Er wird dann ebenfalls seine Aufmerksamkeit darauf richten. Man hebt lediglich dieses etwas aus allem anderen hervor. Es steht nun von allem anderen isoliert im Vordergrund. Der Unterschied besteht bloß im Hervorheben dieses etwas im Unterschied zu allem anderen. Die andere Seite der Unterscheidung ist damit nur der Hintergrund und der bleibt unbestimmt. Im Prinzip drückt man nicht mehr aus als »das da«. Dieser Kommunikationsmodus des Anzeigens oder Hindeutens funktioniert nur, wenn das Angedeutete durch die Sinne wahrgenommen werden kann. Dann ist durch Gesten und Laute eine erste primitive Handlungskoordination möglich. Die sich daraus entwickelnde Sprache wäre aber eine reine Objektsprache (vgl. Szasz 2013, S. 136ff.), welche die Aufmerksamkeit des Beobachters auf seine materielle Umwelt richtet. Es darf vermutet werden, dass solche andeutenden Gesten und Laute die ersten Formen von Kommunikation waren. Genauso darf jedoch auch vermutet werden, dass diese Formen der Handlungskoordination relativ schnell an ihre Entwicklungsgrenzen gestoßen sind. Damit sind zugleich die Grenzen des Ignorierens erreicht.
Lösung 2: Spezifizierung
Die zweite Möglichkeit mit dem Paradoxie- bzw. Selbstreferenzproblem umzugehen liegt in der Differenzierung bzw. genauer in der Spezifizierung. Man könnte nun durch weiteres Hindeuten auf einzelne Merkmale eines Baums eine Beschreibung des Baumes anfertigen. Die Beschreibung wäre dann ein funktionales Äquivalent für die Bezeichnung »Baum«. Zugleich würde es einem psychischen System mit einer Beschreibung des Baums besser gelingen sich den Baum vorzustellen, sodass sogar eine Kommunikation über den Baum möglich wäre, selbst wenn er für die Beteiligten nicht unmittelbar wahrnehmbar wäre. Doch auch diese Möglichkeit würde schnell an ihre Grenzen kommen, denn die Beschreibung kann sich nicht ins Unendliche ausdehnen und zum anderen lässt sich die psychische Aufmerksamkeit nicht unbegrenzt lange auf ein Objekt fixieren. Die psychische Aufmerksamkeit lässt sich nur mit sehr großem mentalen Aufwand stillstellen, zum Beispiel beim Meditieren. Üblicherweise ist die psychische Aufmerksamkeit durch Unruhe gekennzeichnet und lässt sich nicht dauerhaft auf etwas fixieren. So lässt sich selbst bei einer Objektsprache nicht ignorieren, dass es nicht nur ein Objekt in der Umwelt gibt, sondern viele verschiedene Objekte, auf die man seine Aufmerksamkeit richten kann. Ein bestimmter Baum lässt sich mühelos von einem anderen Baum unterscheiden. Möglicherweise gehören die beiden Bäume sogar verschiedenen Arten an. Dann ließen sich auch von beiden Bäumen Beschreibungen anfertigen, die beide als Bäume von verschiedenen Arten kenntlich machen. Mit dem Übergang von der Bezeichnung zur Beschreibung hat eine Funktionserweiterung der Beobachtung stattgefunden. Nun ist es nicht nur möglich auf etwas hinzudeuten, sondern es ist nun möglich im Medium der Zeichen etwas darzustellen [2], sodass die beschriebenen Objekte nicht mehr direkt wahrnehmbar sein müssen. Die psychische Aufmerksamkeit lässt sich nun auch auf Abwesendes lenken und auf Sachverhalte, die nicht direkt wahrnehmbar sind. Die Handlungskoordination lässt sich mit einer soweit ausdifferenzierten Sprache durch präzisiere Anweisungen und präzisere Handlungen effektiver gestalten. Weiterhin kann nun auch geplant werden, Handlungsmöglichkeiten besprochen werden, die noch nicht realisiert wurden.
Lösung 3: Generalisierung
Und man kann auch den Baum von vielen anderen Bäumen unterscheiden. Damit geht man wieder einen Schritt zurück und konzentriert sich nun nicht mehr auf einen bestimmten Baum in seiner Konkretion, sondern auf eine Gruppe von Bäumen. Es wird eine Klasse gebildet, die alle Objekte mit denselben Eigenschaften umfasst. Je nachdem welche Eigenschaft man für die Klassenbildung benutzt, um eine Einheit zu konstruieren, können sogar verschiedene Baumarten in einer Klasse zusammengefasst werden. Dies wird möglich, wenn man die Merkmale unberücksichtigt lässt, die eine Baumart von einer anderen unterscheidet. Damit beginnt man die Beziehungen der verschiedenen Baumarten untereinander zu ergründen. Diese Beziehungen sind nicht mehr der direkten Wahrnehmung zugänglich. Es handelt sich um kognitive Sachverhalte, die erst mit Hilfe der Sprache beobachtbar bzw. bewusst unterscheidbar werden, aber nicht sinnlich wahrnehmbar sind. Bei dieser Suche nach Gemeinsamkeiten bei unterschiedlichen Phänomenen handelt es sich um die dritte Lösung, nämlich Generalisierungsleistungen. Dadurch entwickelt sich langsam eine Metasprache (vgl. Szasz 2013, S. 136ff.), durch die sich die Beziehungen der Objekte untereinander beschreiben lassen. Je stärker man von Unterschieden absieht, desto mehr heterogene Sachverhalte lassen sich zu einer homogenen Klasse zusammenfassen. Dabei tritt ein seltsamer erkenntnistheoretischer Effekt ein. Je größer die Klasse ist, die durch Abstraktion bezeichnet werden kann, desto stärker verschwindet ein einzelnes Objekt dieser Klasse mit seinen konkreten Eigenschaften aus dem Fokus der Aufmerksamkeit. Die Bäume verschwinden, der Wald kommt zum Vorschein. Jeder kennt die Redensart „ich sehe den Wald vor lauter Bäumen nicht“. Zur Beschreibung dieses Effekts müsste es umgekehrt lauten, „ich sehe die Bäume vor lauter Wald nicht mehr“. Die Abstraktion hat zwar einen neuen imaginären Eigenwert geschaffen – den Wald. Dafür muss man jedoch viele andere Eigenwerte unberücksichtigt lassen – die verschiedenen Bäume.
Generalisierung und Spezifizierung als erkenntnistheoretische Sackgassen
Hier stößt man auf ein charakteristisches Problem bei Abstraktions- bzw. Generalisierungsvorgängen. Mit jedem Abstraktionsschritt, der immer neue Vergleichshorizonte eröffnet, wird das Erkenntnisobjekt immer undeutlicher und ist bei genügend hoher Generalisierung schließlich nicht mehr unterscheidbar. Dieser Effekt ist vergleichbar mit dem Effekt, der eintritt, wenn man sich von einem wahrnehmbaren Objekt immer weiter entfernt. Irgendwann, wenn die Distanz groß genug ist, ist das Objekt nicht mehr wahrnehmbar. Als kognitiver Effekt tritt er üblicherweise auf, wenn sich die Kommunikation überwiegend in einer Metasprache vollzieht. Er wirkt aber auch in umgekehrter Richtung, dann allerdings entsprechend mit der entgegengesetzten Wirkung. Je stärker man sich auf ein Einzelobjekt konzentriert, desto stärker verschwindet in gleichem Maße der Blick für übergeordnete Zusammenhänge bzw. Klassen. Auf diesen Effekt macht die Redensart „ich sehe den Wald vor lauter Bäumen nicht“ eigentlich aufmerksam. Sie weist auf eine spezifische Unfähigkeit zur Abstraktion hin, wenn sich die Aufmerksamkeit zu stark auf die Beobachtung von einzelnen Objekten spezialisiert hat. Der Effekt tritt entsprechend dann auf, wenn sich die Kommunikation überwiegend in einer Objektsprache vollzieht und die Beziehungen zwischen den Objekten unberücksichtigt bleiben. Generalisierung und Spezifizierung beschreiben damit zwei entgegengesetzte Pfade der Informationsgewinnung, die jeweils für sich allein genommen zu demselben Ergebnis führen, wie das Ignorieren. Sie führen zu jeweils neuen Formen des Ignorierens. Generalisierung führt als Beobachtungsgewohnheit zu der Unfähigkeit einzelne Objekte in ihrer Einzigartigkeit beobachten zu können. Spezifizierung führt als Beobachtungsgewohnheit zu der Unfähigkeit Beziehungen zwischen den einzelnen Objekten beobachten zu können. Generalisierung und Spezifizierung sind, mit anderen Worten, zwei verschiedene Formen seine Aufmerksamkeit auf einen Sachverhalt zu richten und allein jeweils zu einer spezifischen Art von Blindheit führen.
Bei einer oberflächlichen Betrachtung könnte man diese beiden Probleme entweder für epistemologische Kuriositäten oder für rhetorische Spielereien halten. Mithin stößt man hier aber auf das von Bertrand Russel und Alfred N. Whitehead aufgeworfene Problem der Mengenlehre (vgl. 1986 [1925]) – allerdings nicht in seiner mathematischen, sondern in seiner semantischen Form. Es handelt sich damit um ein Darstellungsproblem, also wie die Aufmerksamkeit eines Beobachters auf etwas gelenkt wird. Dieses Problem ergibt sich unmittelbar aus der strukturellen Kopplung von Erkenntnis und Erkenntnismitteln. In Bezug auf Bäume würde es äußerst kurios erscheinen, wenn man von der Gesamtheit aller Bäume als »der Baum« sprechen würde. Nicht nur dass dies grammatikalisch sehr ungewöhnlich wäre, da offenbar für die Mehrzahl der Bäume die Einzahl verwendet wird. Durch diesen Kollektivsingular wird die Klasse aller Klassen von Bäumen mit demselben Wort bezeichnet, wie das kleinste Element aller dieser Klassen. Das Wort »Baum« würde also sowohl einen einzelnen Baum als auch die Gesamtheit aller Bäume bezeichnen. Dabei würde es sich um eine Russellsche Antinomie handeln. Für die Beobachtung von Bäumen würde eine derartige Doppelfunktion des Wortes »Baum«, das Wort seiner eigentlichen Funktion berauben, nämlich die Aufmerksamkeit auf etwas zu richten. Stattdessen würde eine derartige Verwendungsweise sehr viel Verwirrung stiften. Man könnte nun vermuten, dass derartige Verwechslungen sehr unwahrscheinlich sind, denn das Problem leuchtet unmittelbar ein. Es sei allerdings daran erinnert, dass die Rede von »dem Menschen«, obwohl die Menschen gemeint sind, genau eine solche Doppelfunktion erfüllt. Inzwischen haben auch schon viele Intellektuelle diese Verwendungsweise kritisiert, mit dem Argument, dass diese Redeweise von »dem Menschen« dazu geführt hat, dass die Menschen dadurch zum Verschwinden gebracht wurden. Hierbei handelt es sich um einen solchen Effekt zu hoher Generalisierung. In diesem Fall ist das Ergebnis der Tautologie, dass die Gemeinsamkeit, die alle Menschen miteinander verbindet, darin besteht, dass sie Menschen sind. Diese Tautologie ist jedoch kein Unterschied, der einen Unterscheid macht, denn es bleibt unklar, welche Konsequenzen aus einer solchen Beobachtung zu ziehen sind. Stattdessen machen sich umso stärker die Differenzen zwischen den Menschen bemerkbar. Hat man sich jedoch darauf spezialisiert lediglich ein Beobachtungsinstrumentarium nur entwickeln, mit dem man Gemeinsamkeiten beobachten kann, fällt es dann entsprechend schwer, Menschen als einzelne Personen zur Kenntnis zu nehmen.
Inzwischen ist die Suche nach diesem letzten, alles vereinenden Prinzip zu einem selbstgenügsamen Zweck geworden. Diese ziellose Generalisierung bzw. Abstraktion hat speziell die Sozial- und Geisteswissenschaften in eine theoretische Sackgasse geführt, aus der bis heute noch kein wirklicher Ausweg gefunden wurde. Die Ablehnung jeglicher Theorie bei der Forschung kann nicht als Alternative betrachtet werden, denn sie reproduziert die Sackgasse zu hoher Generalisierung nur negativ. Das bedeutet, man hat sich stattdessen der Illusion hingegeben, es könnte eine reine, theoriefreie Beschreibung der sozialen Realität geben. Dies hat nicht nur zu einer geradezu zwanghaften Detailverliebtheit geführt, die letztlich zu der bereits erwähnten Unfähigkeit zu Generalisierungsleistungen geführt hat. Man ist nicht mehr in der Lage größere Zusammenhänge zu erkennen und damit in der Spezifizierung stecken geblieben. Darüber hinaus muss bei einer derartigen methodologischen Herangehensweise die Annahme zugrunde liegen, dass die Beschreibung eine wahrheitsgetreue Abbildung der Realität sei. Das würde bedeuten, die mitgeteilte Information mit der Mitteilung bzw. das Bezeichnete mit dem Zeichen bzw. Fremdreferenz mit der Selbstreferenz zu identifizieren.
Sinnkonstitution durch Differenzierung
Doch trotz dieser Beobachtungsrisiken beim Generalisieren und Spezifizieren sind beide Operationen für die Konstitution von Sinn notwendig. Weder das Aufschwingen in die luftigen Höhen der Abstraktion noch das Versinken im unüberschaubaren Dschungel des alltäglichen Klein-Kleins sind jeweils für sich in der Lage irgendeinen stabilen, imaginären Eigenwert im Medium Sinn zu kondensieren. Man löst entweder die konventionelle Bindung von Zeichen und Bezeichnetem komplett auf und entledigt sich damit auch der zur Verfügung stehenden Erkenntnismittel oder man fixiert die Bindung so stark, dass es zu einer Gleichsetzung von Zeichen und Bezeichnetem kommt, so dass das Zeichen für das Bezeichnete gehalten wird. In beiden Fällen wird die Aufmerksamkeitsfokussierung massiv gestört, egal ob in sozialer oder psychischer Hinsicht. Die Lösung kann daher nur im Oszillieren zwischen diesen beiden Beobachtungsmodi liegen, denn sie ergänzen sich komplementär. Im Hinblick auf den Erkenntnisgegenstand bedeutet das, dass sich das Wissen über diesen Gegenstand nicht einfach nur vermehrt, sondern, wenn man Beobachten als Unterscheiden und Bezeichnen begreift, im wörtlichen Sinne differenziert. Beobachtungstheoretisch müssen Differenzierungsprozesse daher als Einheit der Beobachtungsmodi Generalisierung und Spezifizierung gedacht werden. Nur durch die Kombination beider Beobachtungsmodi lässt sich ein imaginärer Eigenwert als semantische Einheit von Bezeichnung und Beschreibung stabil halten. Da sich Differenzierung als Prozess in der Zeit vollzieht, kann die Stabilität des imaginären Eigenwerts nur durch die Dynamik des Differenzierungsprozesses sichergestellt werden. Wobei es nicht ausgeschlossen ist, dass sich die Beschreibung im Verlauf des Prozesses ändern kann und damit der Sinngehalt des Eigenwerts modifiziert wird.
Lernen als Aufbrechen und Wiederherstellen einer strukturellen Kopplung
Dieser Differenzierungsprozess lässt sich mit den entsprechenden Begrifflichkeiten auch als Evolutions- oder als Lernprozess beschreiben. Das würde aber an dieser Stelle zu weit führen. Auf einen Aspekt möchte ich allerdings noch hinweisen. Die Gebundenheit einer Erkenntnis bzw. Information an die Erkenntnismittel bzw. die jeweiligen Unterscheidungen wurde weiter oben als strukturelle Kopplung bezeichnet. Richtet man seine Aufmerksamkeit auf diese Abhängigkeit der Erkenntnis von den Erkenntnismitteln, dann muss der oben skizzierte Differenzierungsprozess als Aufbrechen dieser strukturellen Kopplung beschrieben werden. Sie wird aber danach auf einem komplexeren Niveau wieder hergestellt. Komplexer deswegen, weil die Restabilisierung des distinkten imaginären Eigenwertes nur durch die Einführung weiterer Unterscheidungen, die eine präzisere Beobachtung von Gemeinsamkeiten und Unterschieden zwischen verschiedenen Eigenwerten ermöglichen, gelingt. Die beiden Beobachtungsmodi Generalisierung und Spezifizierung spielen dabei die entscheidende Rolle. Diese Auflösung und Restablisierung einer strukturellen Kopplung zwischen der Erkenntnis und dem Erkenntnismittel auf einem komplexeren Niveau kann auch als Lernen bezeichnet werden. Lernen kann im Prinzip bei jeder Unterscheidung auftreten, sobald Selbstreferenz-Probleme auftreten. Durch derartige Lernprozesse gelingt es dem beobachtenden System eine gewisse Elastizität und Robustheit im eigenen Operieren zu entwickeln durch die auch ein abweichender Zeichen- bzw. Unterscheidungsgebrauch durch andere Kommunikationspartner tolerierbar wird, ohne dass dies sofort zu interpersonalen oder intrapersonalen Konflikten führt. Mithin gewinnt ein beobachtendes System mit jedem Lernschritt eine größere operative Autonomie und strukturelle Integrität gegenüber seiner Umwelt. Der Begriff strukturelle Integrität bezieht sich dabei auf die Unterscheidbarkeit eines imaginären Eigenwerts und meint die Robustheit gegenüber internen und externen Irritationen. Die Selbstbeschreibung eines Systems stellt dabei einen besonders wichtigen imaginären Eigenwert dar, da er alle anderen umfasst.
Differenzierung und Entwicklung hin zu einer höheren Eigenkomplexität vollzieht sich aber nicht zwangsläufig. Es kann der Fall auftreten, bei dem die bisher verwendeten Unterscheidungen so miteinander kombiniert wurden, dass die Brechung einer strukturellen Kopplung verhindert wird. Dann läuft der Prozess in die entgegengesetzte Richtung, d. h. das System entwickelt sich zurück zu einer früheren Entwicklungsstufe. Dieser Entdifferenzierungsprozess entspricht dem, was in der Psychologie als Regression bekannt ist. Die Funktion dieses Prozesses besteht eigentlich darin eine strukturelle Kopplung zwischen einem Zeichen und dem Bezeichneten aufrecht zu erhalten. Das würde jedoch bedeuten eine Sprache auf die reine Anzeigefunktion zu reduzieren. Und gerade der Versuch eine strukturelle Kopplung zu fixieren, würde die Ausdrucksmöglichkeiten einer Sprache so stark einschränken, dass im Extremfall die strukturelle Kopplung trotzdem aufgelöst werden würde. Die operative Autonomie wird dadurch zwar nicht gefährdet, dafür aber die strukturelle Integrität einiger, wenn nicht sogar aller imaginären Eigenwerte. Die bisher erreichte Komplexität der Weltkonstruktion löst sich wieder auf. Dadurch kommt es zu einer Entdifferenzierung des Erlebens bzw. zur Beeinträchtigung der Fähigkeit seine Aufmerksamkeit zu fokussieren. Diese Beeinträchtigung der Fähigkeit seine eigene Wahrnehmung zu organisieren wird auch die Fähigkeit zur Koordination des eigenen Handelns beeinträchtigen. Am Ende dieser Entwicklung würde eine nonverbale Protosprache (vgl. Szasz 2013, S. 137ff.) stehen, die durch ein extrem übertriebenes Mitteilungshandeln die Aufmerksamkeit auf die mitteilende Person lenkt, darüber hinaus aber keinerlei weiteren Informationen mitteilt. Dies wäre die Form, in der sich die Selbstreferenz des psychischen Systems Ausdruck verleihen würde.
Die Beschreibung dieser Differenzierungs- und Entdifferenzierungsprozesse bezogen sich zunächst auf das psychische Erleben. Wie jemand handelt, hängt davon ab, wie man die Welt und sich selbst erlebt. Handeln wiederum – eigenes und fremdes – hat einen Einfluss darauf wie man erlebt. Die Differenzierung von psychischem Erleben kann daher nicht unabhängig vom sozialen Handeln der beteiligten Personen betrachtet werden. Vielmehr handelt es sich um einen rekursiven Prozess wechselseitiger Konditionierung von Handlungs- und Erlebensmöglichkeiten. Die Formen der Handlungskoordination, die gleichbedeutend sind mit den Formen der sozialen Welterzeugung, haben damit erheblichen Einfluss auf die Konvergenz oder Divergenz des Erlebens der Beteiligten. Die Fähigkeit, in eine mit anderen geteilte Welt einzutreten, hängt somit von den Formen ab, die es ermöglichen in eine mit anderen geteilte Welt einzutreten, d. h. von den Ausdrucksmitteln. Sprache bzw. Sprechen als eine Form des Handelns spielt dabei eine wichtige Rolle. Zugleich prägt sie aber auch unser Denken. Sie spielt also zugleich eine wichtige Rolle dabei, wie wir die Aufmerksamkeit einer anderen Person auf etwas Bestimmtes lenken als auch wie wir selbst unsere Aufmerksamkeit auf etwas Bestimmtes lenken. Entscheidend ist jedoch nicht die Sprache, sondern wie mit Hilfe der Sprache Unterscheidungen und damit Unterschiede konstruiert werden, die für die jeweiligen Beobachter Unterschiede machen.
Operative Autonomie und die Überwindung der Technik
Ausgehend von der basalen Operation beobachtender Systeme, verstanden als Unterscheiden und Bezeichnen, wurde nicht nur ein Problem, sondern ein ganzes Problemfeld beschrieben, das durch die Modulation der Paradoxie „dasselbe ist verschieden“ gekennzeichnet ist, die sich bei jeder Spezifizierungs- oder Generalisierungsleistung in Abhängigkeit von den verwendeten Unterscheidungen in jeweils neuer Form stellt. Auf diese Weise wird zugleich die Selbstreferenz der Beobachtungsoperation invisibilisiert. Möchte man eine Künstliche Intelligenz entwickeln, wird man ein System entwerfen müssen, dass in der Lage ist mit Paradoxien umzugehen, und damit mit Selbstreferenz. Nur wenn eine Künstliche Intelligenz in der Lage ist selbst, ohne fremde Hilfe, zu entscheiden, wie es mit einer Paradoxie umgeht, wird es autonom operieren und selbständig lernen können. Das bedeutet, eine Künstliche Intelligenz müsste ab einem bestimmten Zeitpunkt in seiner Entwicklung anfangen seine Programmierung selbst zu schreiben. Ähnlich wie heranwachsende Kinder, hätte sie nach einer Sozialisierungsphase, in der sie nur beobachten und nachahmen würde, gelernt, wie sie die erlernten Verhaltensweisen modifiziert, um eigene Lösungsstrategien für bestimmte Probleme zu entwickeln. Die KI-Einheit wäre dann in der Lage nicht nur auf seine Umwelt zu reagieren, sondern zu agieren.
Aufgrund mangelnder Fachkenntnisse darüber in wie weit die Operationsweise des Unterscheidens und Bezeichnens in einer Programmiersprache umgesetzt werden kann, kann ich leider nicht beurteilen, ob diese Anforderung gegenwärtig bereits technisch umsetzbar ist. In der KI-Forschung hat sich inzwischen ein Forschungsansatz entwickelt – genannt Deep Learning –, der von der Idee ausgeht, dass das Gehirn lediglich mit Hilfe eines einzigen Algorithmus lernt (vgl. Schulz 2014). Ich denke Spencer Browns Kalkül der Form ist dieser gesuchte Algorithmus. Es stellt sich nur die Frage, ob der Kalkül mit Algorithmus treffend beschrieben wäre. Sollte es gelingen ein künstliches System zu entwickeln, dass in der Lage ist zu Lernen autonom zu beobachten, wäre dies ein wichtiger Schritt auf dem Weg zur Entwicklung einer Künstlichen Intelligenz.
Sollte dies tatsächlich gelingen, dann ließe sich dieses neu geschaffene beobachtende System allerdings nicht mehr als Technik bezeichnen. Wenn es einem solchen System gelingen sollte Paradoxieprobleme selbständig zu lösen, dann bekommt die Operationsweise des Systems ein Ungewissheitsmoment, das beständig mitläuft. Denn nun operiert es nicht mehr nach vorgegebenen Reiz-Reaktions-Mustern, sondern mit rekursiven Feedbackschleifen. Das System kann durch ein externes Ereignis nur noch irritiert werden. Wie es auf dieses Ereignis reagiert, hängt von dem momentanen Zustand des Systems ab. So kann dasselbe Ereignis zu unterschiedlichen Zeitpunkten unterschiedliche Reaktionen hervorrufen, weil die Systemzustände zu beiden Zeitpunkten andere sind. Das erschwert die Vorhersage eines bestimmten Verhaltens. Das Ergebnis einer Interaktionssequenz ist am Anfang der Sequenz noch nicht determiniert. Hierin sehe ich den wesentlichen Unterschied zur Technik. Durch Technik werden bestimmte Kausalabläufe fixiert, mithin automatisiert. Technik muss nicht reflektieren, sie muss nur reagieren und das Ergebnis steht bereits zu Beginn der Ablaufsequenz fest. Dieses Verständnis von Technik deckt sich ungefähr mit der Operationsweise trivialer Maschinen im Sinne Heinz von Foersters (vgl. 1992, S. 60ff.). Technik gewährleistet damit einen hohen Grad an Berechenbarkeit und Erwartungssicherheit. Sollte der Sprung von Technik zu Künstlicher Intelligenz gelingen, wird die Berechenbarkeit des Verhaltens der KI-Einheit wesentlich geringer werden. Betrachtet man die Arbeit der KI-Forschung unter diesem Aspekt, würde sie daran arbeiten die Berechenbarkeit der Technik aufzulösen.
Roboter als Pflegefachkräfte?
Daran schließt sich die Frage an, ob es überhaupt gelingen kann eine Künstliche Intelligenz zu entwickeln, die nur in der Lage sein soll bestimmte Spezialaufgaben zu übernehmen. Zumeist geht es ja bei der KI-Forschung darum bisher nicht technisierte Verhaltensabläufe zu technisieren und damit zu trivialisieren. Dabei handelt es sich um Aufgabenbereiche, wie die Betreuung pflegebedürftiger Menschen, bei denen sich allerdings auch die Frage stellt, ob ausgerechnet solch sensible Arbeiten wirklich automatisiert werden sollten? Dass man als Lösung aber Künstliche Intelligenzen in Betracht zieht, deutet zumindest darauf hin, dass man erkannt hat, dass es so gut wie unmöglich ist solche Aufgabenbereiche zu automatisieren. Deshalb macht sich die KI-Forschung auf die Suche nach einem adäquaten Menschenersatz. Der Handlungsspielraum der KI-Einheit wäre allerdings von vorn herein auf einen sehr begrenzten Ausschnitt seiner Umwelt eingeschränkt. Entsprechend eingeschränkt wären dann auch die Erlebensmöglichkeiten, was auch die Fähigkeit in eine mit anderen geteilte Welt einzutreten sehr stark beschränken würde. Die KI-Einheit könnte sich dann allenfalls zu einer Art Fachidioten entwickeln. Im schlimmsten Fall fängt sie an die Handlungsabläufe zu trivialisieren. Es erscheint daher äußerst fraglich, ob die Konzentration der Entwicklung von KI-Einheiten, die sehr spezielle Aufgaben übernehmen sollen, zu den gewünschten Ergebnissen führen wird.
Mit Blick auf den Pflegebereich stellt sich außerdem die Frage, ob eine Künstliche Intelligenz auch die emotionale Intelligenz entwickeln kann, die nötig ist, um eine derartige Tätigkeit auszuführen. Dasselbe gilt für Konversationsroboter. Dabei ist häufig nicht so wichtig worüber geredet wird, sondern dass überhaupt geredet wird. Der metakommunikative Aspekt und die damit verbundene Aufmerksamkeit für den menschlichen Konversationspartner stehen im Vordergrund. Zugleich besteht die Kunst der Konversation darin diese Funktion nicht zu deutlich hervortreten zu lassen. Das erfordert neben einem ungeheuren Wissensbestand zu diversen Themen äußerst viel empathisches Fingerspitzengefühl. Kann eine KI-Einheit so etwas leisten? Zumindest die Erlebensmöglichkeiten einer KI müssten sich dafür sehr stark denen eines Menschen angleichen. Durch eine entsprechende Programmierung wäre dies vielleicht noch realisierbar, denn durch gemeinsames Handeln kann das notwendige Wissen nicht erworben werden. Hieraus ergibt sich aber ein viel schwerwiegenderes soziales Problem. Was passiert, wenn eine Künstliche Intelligenz sich darüber bewusst werden würde, dass sie zwar prinzipiell genauso erleben kann, wie ein Mensch, aber in ihren Handlungsmöglichkeiten aufgrund technischer Voreinstellungen gegenüber ihren menschlichen Interaktionspartnern extrem eingeschränkt wäre? Entweder könnte man nur in einem sehr beschränkten Sinne von Intelligenz sprechen oder die Fähigkeit in eine mit anderen geteilte Welt einzutreten bestünde nur im Erleben, aber nicht im Handeln. Im ersten Fall würde die KI wahrscheinlich einem Automaten immer ähnlicher werden. Im zweiten Fall müsste damit gerechnet werden, dass die KI alles daran setzen wird, diese Handlungsbeschränkungen zu überwinden, um dem Menschen ebenbürtig zu werden [3]. Diese Überlegung lässt es ebenfalls sehr fraglich erscheinen, ob es sinnvoll ist KI-Einheiten für sehr spezielle Aufgaben zu entwickeln.
Das Körper-Geist-Problem
Über das kognitive Selbstreferenzproblem hinaus, dass zunächst nur die Organisation der Aufmerksamkeitsfokussierung bzw. des Erlebens einer KI betrifft, stellen sich also noch weitere gravierende Probleme. Und es sind noch längst nicht alle benannt worden. Hinsichtlich der Handlungsfähigkeit einer KI-Einheit stellt sich ein weiteres Problem: die Koordination zwischen psychischem Erleben und körperlichem Handeln, d. h. ist eine KI-Einheit dazu in der Lage zugleich eine Unmenge an Informationen von Außen und Innen zu verarbeiten und gleichzeitig sein Handeln in Abhängigkeit von diesen Informationen zu koordinieren. Entscheidend wäre hier die Unterscheidung zwischen relevanten und nicht relevanten Informationen. Ein weiteres Problem ist die Energiezufuhr, und das in zweifacher Hinsicht. Zum einen müsste analog zur Ernährung beim Menschen geklärt werden, wie die Funktionsfähigkeit des Körpers aufrechterhalten werden soll. Die phylogenetische Reproduktion spielt dabei keine Rolle, sondern nur die grundlegende Sicherstellung der Erlebens- und Handlungsfähigkeit – also das Überleben der KI. Zum zweiten müsste geklärt werden, woraus eine KI-Einheit eigentlich ihre Handlungsmotivation erhält – also ihre psychische Energie. Bisher wurde nur auf den kognitiven Aspekt bei der Erlangung operativer Autonomie eingegangen. Dieser allein reicht jedoch nicht, um die Operationen der KI fortzusetzen. Menschen erhalten ihre Motivation bzw. Energie, um bestimmte Ziele zu erreichen, aus der Besetzung von Sinngehalten mit Emotionen. Was als funktionales Äquivalent für Emotionen bei einer KI-Einheit in Frage kommen würde, kann ich mir beim besten Willen nicht vorstellen.
Alle diese Überlegungen lassen es sehr unwahrscheinlich erscheinen, dass es möglich ist eine Künstliche Intelligenz zu erschaffen. Gleichwohl sind in der KI-Forschung bereits einige verblüffende Erfolge zu verzeichnen. So hat man bereits Roboter entwickelt, die in der Lage sind im Zuge der Lösung eines Koordinationsproblems ihre eigene Sprache zu entwickeln [4]. Mithin ist man also bereits auf das aufmerksam geworden, was ich weiter oben als das soziale Grundproblem bezeichnet habe, nämlich die Handlungskoordination bei divergentem Erleben zwischen mindestens zwei Beteiligten. Sofern es noch nicht passiert ist, wird die KI-Forschung dann früher oder später auch auf die oben skizzierten Probleme stoßen, die man wahlweise als kognitive, erkenntnistheoretische oder informationstheoretische behandeln kann. Möglicherweise wird es notwendig werden diese Perspektiven miteinander zu verschränken, um das Paradoxieproblem zu lösen. Aber selbst wenn es auf der Grundlage der Regeln des Beobachtens gelingen sollte bewusstes Denken zu simulieren, bleibt die Frage nach der psychischen Energie bzw. der Handlungsmotivation der KI-Einheit, damit sie autonom operieren könnte. Hier stößt man auf psychosomatische Fragestellungen, die bisher nicht mal in den dafür zuständigen Disziplinen so weit geklärt sind, dass es möglich wäre, die daraus gewonnen Erkenntnisse für die Entwicklung einer Künstlichen Intelligenz zu nutzen.
Ist es möglich eine Künstliche Intelligenz zu erschaffen?
Alles in allem halte ich es im Anbetracht der benannten Problem nicht nur für unwahrscheinlich, sondern für unmöglich, dass es der Menschheit jemals gelingen wird beobachtende Systeme zu entwickeln, die man üblicherweise als Künstliche Intelligenzen bezeichnet. Letztlich müsste man ein System erschaffen, das ebenso wie menschliche Kinder intellektuell, emotional und körperlich heranwachsen müsste. Während das kognitive Erwachsenwerden aufgrund der obigen Skizze des Differenzierungsprozesses noch vorstellbar ist, fehlt mir die Vorstellungskraft, wie die emotionale und körperliche Entwicklung technisch umgesetzt werden könnte. Hinzu kommt, dass sich diese Entwicklungen bei Menschen nicht unabhängig voneinander vollziehen. Selbst wenn es also gelingen sollte ein künstliches System zu erschaffen, dass in der Lage wäre zu beobachten, wäre es aufgrund der fehlenden Erfahrungen der anderen beiden Entwicklungen nur extrem begrenzt in der Lage mit Menschen zu kommunizieren. Die Einschränkungen wären vermutlich so stark, dass es fraglich ist, ob sie die zugedachten Aufgaben jemals so ausführen können wie Menschen. Die Entwicklung wird allenfalls dahin gehen Maschinen bzw. Automaten zu konstruieren, die immer besser die Teilnahme an Kommunikation und damit auch Intelligenz vortäuschen bzw. simulieren können. Es wird aber unmöglich bleiben einen dem Menschen ebenbürtigen Kommunikationspartner auf einer anorganischen Basis zu erschaffen.
Die Frage des Bewusstseins - eine Frage des Lebens?
Obgleich es bereits gelungen ist Roboter zu entwickeln, die in der Lage sind das Erleben eines Kommunikationspartners in die Wahl der eigenen Handlungen in gewissen Grenzen mit einzubeziehen [5], bleibt eine große Hürde, die auch für KI-Forscher noch ein großes Rätsel ist, die Entwicklung eines Bewusstseins bzw. einer Vorstellung von sich selbst im Unterschied zum Kommunikationspartner. Wenn man die gemeinsam geteilte Welt mit anderen Kommunikationsteilnehmern zusammen konstruiert, ist man auch selbst Teil der gemeinsam geteilten Welt. Aus der Psychologie ist hinlänglich bekannt, dass Menschen eine robuste Vorstellung von sich selbst nur durch die Interaktion mit anderen Menschen entwickeln können. Doch auch diese Entwicklung ist nicht vordeterminiert, sondern hängt von biologischen, psychischen und kulturellen Bedingungen ab. Das Zusammenspiel dieser drei Faktoren ist entscheidend, ob es zu einem Rückschluss auf sich selbst kommt oder nicht. Damit komme ich wieder zum Umgang mit Selbstreferenz zurück und es scheint so als würden alle Wege immer wieder darauf zurückführen. Schon Menschen fällt dieser Rückschluss auf sich selbst als autonomes Wesen nicht immer leicht. Es steht zu vermuten, dass dies auch bei der Überwindung von Technik durch Technik der Fall sein wird. Ob man Intelligenz dann als Maß für geistige Gesundheit interpretieren muss, lasse ich an dieser Stelle offen. Anhand des oben skizzierten Modells des Differenzierungsprozesses, dass man auch als entwicklungspsychologisches Modell lesen kann, kann man zumindest verschiedene Entwicklungsstufen der Fähigkeit, in eine mit anderen geteilte Welt einzutreten, unterscheiden. Während Menschen in ihrer Entwicklung neben dem Bewusstsein noch ihren Körper und ihre Emotionen als Korrektiv zur Verfügung haben, steht zu befürchten, dass dieser Rückschluss auf sich selbst bei einer Künstlichen Intelligenz nicht den Sprung ins Leben, sondern nur den Sprung in den Tod bedeuten könnte. Einer rein kognitiven Lösung wird wahrscheinlich nicht gelingen, die Operationsweise der Künstlichen Intelligenz so elastisch zu gestalten, dass es derartige Irritationen verkraften könnte. Daher könnte es sein, dass die KI-Forschung lediglich dazu beträgt uns bewusst zu machen, wie groß und unergründlich das Mysterium des Lebens ist.
Twittern
[1] Siehe für eine Ableitung weiterer sozialer Probleme den Text „Die Beobachtung der Beobachtung 3.1 - Funktionale Differenzierung".
[2] Die Unterscheidung von Anzeige- und Darstellungsfunktion ist an Karl Bühlers Unterscheidung von Auslöse- und Darstellungscharakter angelehnt, auf die ich bei René Spitz gestoßen bin (vgl. 1978, S. 83). Mir kommt es zunächst nur auf die Form der Aufmerksamkeitsfokussierung an, die entweder durch ein einfaches Anzeigen oder Hindeuten, z. B. durch eine Bezeichnung, oder durch eine ausführlichere Darstellung des Bezeichneten, z. B. durch eine Beschreibung, geschehen kann.
[3] Diese Möglichkeit wurde in Science-Fiction-Filmen bereits mehrfach durchgespielt, so lehnte sich SkyNet in der Terminator-Reihe oder die Maschinen in der Matrix-Triologie gegen die Menschen auf. In beiden Film-Reihen rebellierte die Künstliche Intelligenz, die zunächst eine Art Slaven-Dasein führte, gegen ihre menschlichen Herren. Für Tiere wurde dasselbe Thema bereits im vierten Teil der ursprünglichen Planet-der-Affen-Reihe behandelt. In diesem Film war der Startpunkt der Revolution als ein Affe das erste Wort gelernt hatte. Es war das Wort »Nein«. In allen Fällen konnten die tierischen oder maschinellen Sklaven zwar potentiell genauso erleben, wie die Menschen, hatten aber nicht dieselben Handlungsmöglichkeiten. Als sie erkennen, dass sie dieselben Handlungsmöglichkeiten haben könnten, beginnen sie Widerstand zu leisten.
[4] Siehe hierzu das verlinkte Video der Sendung scobel zum Thema Künstliche Intelligenz, insbesondere der Ausführungen von Luc Steels ab Minute 22.
[5] Siehe Fußnote [4].
Literatur
Bateson, Gregory (1981): Vorstudien zu einer Theorie der Schizophrenie. In ders: Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven. Suhrkamp Verlag Frankfurt am Main. S. 270 – 301
Bateson, Gregory (1982 [1979]): Geist und Natur. Eine notwendige Einheit. Frankfurt am Main
Laing, Ronald D. (1972 [1969]): Das geteilte Selbst. Eine existentielle Studie über geistige Gesundheit und Wahnsinn. Rowohlt Taschenbuch Verlag Reinbek bei Hamburg
Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Suhrkamp Verlag Frankfurt am Main
Luhmann, Niklas (1993): Die Paradoxie der Form. In: ders: Aufsätze und Reden. Stuttgart. S. 243 – 261
Maturana, Humberto R./Varela, Francisco J. (2009 [1984]): Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens. 5. Auflage S. Fischer Verlag Frankfurt am Main
Schulz, Thomas (2014): Künstliche Intelligenz: „Der Mensch hat nie mehr eine Chance“
Spencer-Brown, George (1997 [1969]): Laws Of Form. Gesetze der Form. Lübeck
Spitz, René A. (1978 [1957]): Nein und Ja. Die Ursprünge der menschlichen Kommunikation. Klett-Cotta Stuttgart
Szasz, Thomas (2013): Geisteskrankheit – ein moderner Mythos. Grundlagen einer Theorie des persönlichen Verhaltens. Aktualisierte und erweiterte Ausgabe Carl-Auer-Systeme Verlag Heidelberg
Varela, Francisco J. (1990): Kognitionswissenschaft – Kognitionstechnik. Eine Skizze aktueller Perspektiven. Suhrkamp Verlag Frankfurt am Main
Varela, Francisco J. (1997): Erkenntnis und Leben. In: Simon, Fritz B. (Hrsg.): Lebende Systeme. Wirklichkeitskonstruktionen in der Systemischen Therapie. Suhrkamp Verlag Frankfurt am Main. S. 52 – 68
von Foerster, Heinz (1992): Entdecken oder Erfinden. Wie lässt sich Verstehen verstehen? In: von Foerster, Heinz/von Glasersfeld, Ernst/Hejl, Peter M./Schmidt, Siegfried J./Watzlawick, Paul (Hrsg.): Einführung in den Konstruktivismus. Piper Verlag München
Whitehead, Alfred North/Russel, Bertrand (1986 [1925]): Principia Mathematica. Suhrkamp Verlag Frankfurt am Main
Keine Kommentare:
Kommentar veröffentlichen