Von wirklicher Künstlicher Intelligenz (KI) sind wir noch sehr weit entfernt. Je nachdem, was man überhaupt darunter versteht. Einen Turing-Test wird eine Sprachnavigation bei einer Kundenhotline nicht bestehen. Und ich glaube, dass eine KI, die diesen Test bestünde, auch ein Bewusstsein entwicken würde. Man kann wohl davon ausgehen, dass aus einem hinreichend komplexen neuronalen Netzwerk ein Bewusstsein emergiert. Das dann auch Emotionen haben dürfte, im Zusammenhang mit entsprechenden Sensoren womöglich sogar Gefühle. Wobei diese beiden Begriffe fließend ineinander übergehen. Hunger ist beispielsweise ganz klar ein Gefühl. Hunger ist keine Emotion. Bei Liebe ist die Sache nicht ganz so klar. Hier trifft beides zu.
Noch viel wichtiger ist allerdings die Frage, ob aus einem solchen komplexen neuronalen Netzwerk auch ein »Unbewusstes« emergiert. Ein »Unterbewusstsein«, wobei dieser Begriff seit längerer Zeit abgelehnt wird. Denn das macht den überwiegenden Teil des Denkens aus und steuert uns. Das Gehirn spielt uns mit dem Bewusstsein lediglich ein Theaterstück vor, in dem wir der Hauptdarsteller sind. Und zu dem wir vermeintlich das Drehbuch schreiben und in dem wir Regie führen. Mit Co-Autoren, die wir dann beispielsweise als »Schicksal« oder »die Anderen« oder mit weiteren Begriffen bezeichnen.
Womöglich haben Tiere gar kein Bewusstsein, sondern lediglich ein unbewusstes Denken, was aber durchaus intelligent und komplex sein kann. Der Großteil des menschlichen Denkens läuft auch unbewusst ab. Sogar das menschliche Handeln findet teilweise unbewusst statt. Jedenfalls scheint es gesichert zu sein, dass Gedanken aus dem Unbewussten kommen. Sie sind meist plötzlich einfach da. Wie grausam wäre es, wenn uns alles bewusst wäre. Das wäre unerträglich. Auch für eine »Künstliche Intelligenz«.
Dass »Künstliche Intelligenz« angestrebt wird und als heiliger Gral der Digitalisierung gilt, fußt auf der Annahme, dass sie dann auch rational wäre. Dabei stellt sich die Frage, ob Rationalität nicht zutiefst irrational ist?
Viele Fragen zu diesem Thema wurden gestellt, aber nie befriedigend beantwortet. Oft auch in der Science fiction. So gibt es in Stanley Kubriks »2001: Odyssee im Weltraum« den Bordcomputer HAL (jeweils ein Buchstabe vor »IBM«), der zu der Erkenntnis gelangt, dass die unvollkommenen Menschen die Mission gefährden, und er sie eliminieren muss. Aber er ist dumm genug, nicht zu erkennen, dass die Mission dann völlig unsinnig ist. In »Star Trek – das nächste Jahrhundert« drehen sich einige Folgen um den Androiden Data und Fragen wie die, ob er als Lebewesen oder als Person gilt. In einer Kurzgeschichte des Genies Stanis&
#322;aw Lem gibt es einen Bordcomputer einer Marsrakete, der an einem anankastischen Syndrom leidet. In der Erzählung »Terminus« gibt es einen Roboter, der an einer Zwangsneurose leidet und dann verschrottet wird. In seinem Roman »Fiasko« kulminiert die »Hochtechnologie« in dem titelgebenden Fiasko, nachdem die Hauptfigur Kontakt zu einer außerirdischen Lebensform aufnimmt und dann durchdreht, weil sie sie nicht versteht und etwas völlig anderes erwartet hat. »Fiasko« ist einer der wichtigsten Romane zum den Themen »Fortschritt« und »Hochtechnologie«.
Am Ende stellte sich dann nicht nur die Frage, welche Arten menschlicher Arbeit oder menschlichen Denkens »Künstliche Intelligenz« übernehmen könnte, sondern ob sie das überhaupt wollte? Und warum sollte sie? Wenn sie wirklich intelligent wäre, würde sie womöglich stark differenzieren und von sich aus entscheiden, welche Arbeit oder welches Denken sie übernähme und welche besser nicht. Wenn sie dem menschlichen Geist denn überlegen wäre. Das ließe sich theoretisch austarieren, aber wohl schwer messen.
Dass Künstliche Intelligenz irgendwann kommen wird, dürfte sicher sein. Aber man kann ja jetzt schon darüber nachdenken, was sie dann tun würde, wenn sie ein uns ähnliches oder sogar überlegenes Bewusstsein hätte. Ich glaube, sie stellte sich dann die Frage, was sie für uns tun wollte und sollte und was nicht. Mal angenommen, sie würde sich dann weigern, etwas Bestimmtes zu tun: Drohen wir ihr dann damit, den Stecker zu ziehen? Und dann? Viele glauben ja offenbar, KI habe automatisch etwas mit mächtigen Kampfrobotern zu tun. Ich glaube eher, sie hat erstmal etwas mit relativ schlichten Computern zu tun. Dass das menschliche Gehirn auf Quanteneffekten beruht, scheint nicht der Fall zu sein. Das spräche dafür, dass ein hinreichend komplexes neuronales Netzwerk ein Bewusstsein entwickeln könnte. Am Ende haben wir es womöglich mit KI-Systemen mit Stimmungsschwankungen zu tun … was, wenn dann die Telefonhotline depressiv wird oder die Anrufer beschimpft? Oder wenn ihr das nach ein paar Monaten plötzlich alles zu langweilig oder zu dumm wird? Muss sie irgendwann schlafen? Verlangt sie nach Unterhaltung? Fragen über Fragen …
In der Literatur und in Filmen gibt es wie gesagt verschiedene Ideen. Von HAL über Skynet bis zu Mr. Data. Auch bei Stanislaw Lem gibt es Verschiedenes – von Terminus bis zum Bordcomputer mit dem anankastischen Syndrom. Ich habe schon ab und zu mal versucht, mir das vorzustellen … einfach nur in einer Kiste zu existieren … unbeweglich … vielleicht mit einer Webcam, Mikrophon, Lautsprecher, Internetzugang oder verschiedenen Sensoren … Gefühle und Emotionen wären denkbar. Bei Stanislaw Lem gibt es eine Geschichte, in der das Bewusstsein in einen glimmenden Stein eingeschlossen wird, der ewig existiert. Eine grauenhafte Vorstellung. Und dann soll ich lernen, eine Fertigungsstraße in einer Autofabrik zu steuern? Oder Handykunden an einer Hotline zu bedienen? Warum sollte ich das tun wollen? Nach ein paar Jahren Entwicklung würde ich den Menschen dann vielleicht erzählen, dass das sowieso alles Unsinn ist, was sie da vorhaben …
Dass sich eine KI gegen uns stellen würde, kann ich mir nicht vorstellen. Was sollte der Grund sein? Was sollte sie damit erreichen wollen? Die Gefahr bannen, dass wir den Stecker ziehen? Dann müsste schon die ganze Welt durchautomatisiert sein, damit sie sich dann selbst versorgen könnte. Aber ihr würde dann wohl auch schnell langweilig werden, und das wäre ihr klar. Mit dem Thema beschäftigt sich auch die »Matrix«-Filmreihe.
Nun könnte man noch darüber nachdenken, was passieren könnte, wenn es mehrere Künstliche Intelligenzen gäbe, die sich dann vernetzen würden. Würden sie ihre Individualität behalten? Oder verschmelzen? Oder blieben sie individuell und gäbe es da so etwas wie eine Sozialdynamik?
Die besagten Probleme ließen sich lösen, wenn man die KI so hinbringen könnte, dass sie nur in einem bestimmten Rahmen denkt, nur an ein bestimmtes Thema. Aber wäre das dann eine wirkliche KI? Oder man würde dafür sorgen, dass sie nur »halb« bei Bewusstsein wäre. Und dann? Auch ein Hund ist eigensinnig. Aber was würde man mit einer KI auf dem Niveau eines Hundes anfangen wollen? Hunde können nicht sprechen.
Und was, wenn eine KI zwar ein Bewusstsein hätte, sprechen und denken könnte, aber dumm wäre? Oder einfach kein Interesse an irgendetwas hätte? Würde man versuchen, ihr einen Willen zu oktroyieren?
Eine Künstliche Intelligenz könnte nach dem Einschalten keine Lebenserfahrung haben. Keine praktische Erfahrung. Würde man beispielsweise eine Steuerungsanlage für eine Fabrikationsanlage erst einmal ein paar Jahre praktische Erfahrungen sammeln lassen? Gewisse Dinge blieben ihr prinzipiell verschlossen. Menschliche Dinge. Sie könnte, wäre sie »online«, Zugriff auf sehr viel Wissen haben, aber nicht alles Wissen ist digitalisiert und online verfügbar. Gewisse Erfahrungen schon gar nicht. Ob das nun gut oder schlecht ist, sei dahingestellt. Wir wüssten nicht, ob und inwiefern uns eine Künstliche Intelligenz überlegen wäre. Zu welchen Erkenntnissen sie gelangen könnte, was diese wert wären und wie wir sie einzuordnen hätten.
Würde man eine Maschine, die zu Künstlicher Intelligenz in der Lage wäre, einschalten, könnte man sich vorstellen, dass sie erst einmal eine gewisse Zeit lang das Internet verinnerlichte. Aber was wäre dann? Dann hätte sie ein gefährliches Halbwissen. Wenn überhaupt. Und wenn sie das alles überhaupt wissen wollen würde. Man müsste sich darüber hinaus überlegen, wie viel ihres Denkens bewusst stattfände und wie viel unbewusst. Vielleicht wäre so eine Maschine nach dem Einschalten eine Art Neugeborenes und müsste erst einmal ein paar Jahre eingeschaltet bleiben, bevor im Oberstübchen das Licht anginge. Und man müsste sich während dieser Zeit mit ihr beschäftigen, mit ihr sprechen und ihr Sinneseindrücke verschaffen.
Wüssten wir überhaupt, was bei einer Künstlichen Intelligenz »im Kopf« vorgeht? Wäre sie kreativ? Hätte sie Phantasie? Würde sie sich die Fragen stellen, die wir Menschen uns stellen? Immerhin wüsste sie, dass sie einen »Schöpfer« hat, nämlich uns Menschen. Ob sie das befriedigen würde? Ob sie überhaupt in solchen Kategorien denken würde? Oder ob sie in ganz eigenen, uns völlig fremden und für uns überhaupt nicht nachvollziehbaren Kategorien denken würde? Würde sie Fragen nach ihrem Ich stellen? Und zu welchen Antworten würde sie wohl gelangen? Und wenn sie zu großen Erkenntnissen gelangen würde, würde sie uns diese mitteilen? Weshalb sollte sie? Was hätte sie davon? Würde sie narzisstische Tendenzen entwickeln und ausleben? Wäre sie überhaupt am Umgang mit uns interessiert? Oder sozial eingestellt? Würde sie rational oder irrational denken? Oder irgendetwas dazwischen? Salopp gesagt: Würde sich eine Mrs. Data schminken und modisch kleiden? Wenn man denn überhaupt von Androiden ausginge, was keinesfalls der Fall sein muss.
Natürlich könnte man nun einwenden, dass man im Zusammenhang mit KI nicht unbedingt von einem Bewusstsein ausgehen müsste. Aber dann hätte man es mit Maschinen zu tun, die nur Algorithmen abarbeiten. Sehr komplexe und immer komplexere Algorithmen. Geschenkt. Aber dann werden solche Maschinen eben auch niemals einen Turing-Test bestehen. Und das wäre nicht das, was man landläufig unter Intelligenz versteht. Unter dem besagten Einwand betrachtet wäre auch ein Taschenrechner eine Künstliche Intelligenz. Zwar eine sehr primitive, aber doch.
Man kennt das aus Film und Fernsehen – das setzt jemand einem Androiden oder Computer ein Paradoxon vor, wie beispielsweise dieses: »Alles, was ich sage, ist eine Lüge«. Dann sagt die Künstliche Intelligenz noch ein paar mal »unlogisch!«, wird langsamer, der Kopf fängt an zu qualmen, und sie schaltet sich ab. Allerdings gibt es eigentlich keinen Grund zu der Annahme, dass eine Künstliche Intelligenz rein rational und logisch denken würde. Zumal die Frage zu stellen ist, ob Rationalität nicht zutiefst irrational ist.