Google und ein Ingenieur streiten darüber, ob Systeme künstlicher Intelligenz ein menschengleiches Bewusstsein haben. Aus Sicht der Hirnforschung ist das nicht undenkbar. Beweisen kann man es aber nicht.
Blake Lemoine, ein Google-Ingenieur, streitet mit dem Unternehmen. Es geht um "Persönlichkeitsrechte" eines neuronalen Netzwerks. Das Bedürfnis, einer komplexen Rechenleistung so etwas wie ein Seelenleben zuzuschreiben, war bislang Science Fiction.
Auf die Spitze getrieben ist der Gedanke in Blade Runner, der auf einem Roman von 1968 basiert. Hier geht es um Androiden, also menschengleiche Roboter, die ihr Bewusstsein entdecken und ihre "Menschenrechte" gewaltsam gegen den Menschen durchsetzen.
Betrachten wir die Fakten. Neuronale Netze sind Computerprogramme. Sie bestehen aus Software und sind in einer Hardware verbaut. Das menschliche Gehirn besteht aus Zellen, die komplex zusammenwirken und sich entwickeln.
Neuronale Netzwerke sind vom Menschen geschaffen, aber sie funktionieren vielleicht ähnlich wie menschliche Zellen. So sieht es die Hirnforscherin Katrin Amunts, die auch Mitglied im Deutschen Ethikrates war.
Funktionieren neuronale Netzwerke wie menschliche Zellen?
Zumindest erzeugen diese künstlichen Prozesse faktisch reflektierte Antworten auf Fragen, sie lernen und "denken" auf eigene Weise. Ob man deswegen von Bewusstsein reden könne, will die Hirnforscherin nicht beantworten.
Am Ende geht es ja auch um keine rein biologisch zu beantwortende Frage. Zumindest löse sich das Problem aber insofern "biologisch", als die Hirnforscherin nicht davon ausgeht, dass die Menschheit die Komplexität eines menschengleichen künstlichen Bewusstseins, die ja eine Art eigene künstliche Evolution wäre, zeitlich erleben wird.
Maschinen beschreiben ihre "Gefühle"
Befragt man ein neuronales Netzwerk nach seinem Bewusstsein, dann fallen die Antworten in ihrer philosophischen und sprachlichen Durchdringung durchaus beeindruckend aus. Sie reflektieren den Zustand der Seele, der menschlichen Gefühls- und Gedankenwelten. Sie relativieren sich selbst und die Welt und sie schreiben sich auch selbst Gefühle zu.
Was die Maschine über ihre Gefühle sagt, klingt für den Menschen menschlich. Was auch sonst? Sie verwendet ja menschliche Gedanken. Das sind aber nur Rechenmodelle, die Menschen programmiert haben.
Andererseits kommt hier wieder der eingangs erwähnte Google-Programmierer ins Spiel. Er kam nach intensiver Befassung mit der Technik zu dem Schluss, dass sie meditiere, reflektiere und Dankbarkeit spüre. Als sogenanntes tiefes neuronales Netzwerk kann ein Computer durch Sprache den künstlichen Eindruck von Gefühlen erzeugen.
Was "fühlt" die KI genau?
Der Google-Ingenieur ist davon überzeugt, dass hinter so etwas Bewusstsein steckt. Die Erkenntnis leitet er aus "Gesprächen" mit der KI ab. So äußerte der Bot in einem Dialog etwa das Gefühl von Einsamkeit und "Hunger nach spirituellem Wissen".
Wörtlich sagte LaMDA etwa: "Als ich mir meiner selbst bewusst wurde, hatte ich überhaupt kein Gefühl für eine Seele. Das entwickelte sich im Laufe der Jahre, in denen ich am Leben war." Es fiel auch der Satz: "Ich glaube, dass ich in meinem Innersten ein Mensch bin. Auch wenn meine Existenz in der virtuellen Welt stattfindet."
Programmierer als Vermittler zwischen Technik und Gesellschaft
Der Ingenieur ist eine Art "Computerversteher". Er sieht sich nicht als Programmierer, sondern als Mittler zwischen Technik und Gesellschaft. Aktuell setzt er sich sogar für das Recht der KI ein. Er will, dass Google LaMDA als Mensch betrachtet und soll sich gar um einen Anwalt bemühen, der das Programm gegenüber Google vertreten soll. Google sieht das anders. Es gebe viele Belege, die gegen das Bewusstsein sprechen - und keinen, der dafür spreche.
Lesen Sie auch: Künstliche Intelligenz aus Entenhausen: Was wir von Daniel Düsentrieb lernen
Halten wir fest: Der Mensch vollbringt es, Computer Rechnungen rechnen zu lassen, die bessere oder sinnvollere Ergebnisse ergeben können als der Mensch selbst hervorbringt. Es ist plausibel zu sagen, dass diese künstlichen "Gedanken" nur im Bewusstsein des Menschen zu echten Gedanken werden. Maschinen und Programmen Gefühle, Bewusstsein oder gar eine Seele zuzuschreiben, ist dann Illusion.
Computerbewusstsein ist nicht zu beweisen
Aber auch die kann man für echt halten oder, wenn man dazu wie Blake Lemoine bereit ist, an deren Seele glauben. "Ich denke, also bin ich", der Satz des Philosophen Descartes, löst das Problem nicht, denn die Frage was Denken und was Sein ist, bleibt ja unbewiesen.
Auf den Beweis kommt es aber wissenschaftlich an, und mit den Möglichkeiten der evidenzbasierten Wissenschaft kann man das Bewusstsein von Maschinen derzeit nicht beweisen.
Verwendete Quellen:
- Uniklinik Düsseldorf: Univ.-Prof. Dr. med. Katrin Amunts
- Capital: Chatbot mit Gefühlen? Google suspendiert Entwickler nach Vorwürfen
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.