Die "Intelligenz" von Maschinen ist künstlich. Dass sie Gefühle haben sollen, klingt absurd. Es gibt dennoch Menschen, die daran glauben.
Der Google-Ingenieur Blake Lemoine hatte die Aufgabe LaMDA, was für "Language Model for Dialogue Applications" steht, zu testen. Diese per Sprache kommunizierende künstliche Intelligenz (KI) wird bei der Entwicklung von maschinellen Sprachassistenten eingesetzt. Man "füttert" das System mit Worten und es macht daraus Sätze, mit denen es Antworten auf Fragen geben kann, so wie eine Worterkennung Wortanfänge vervollständigen kann.
Die "Gefühle" von Computern
Bei der Befassung mit dem Programm ging es darum, aus den Aussagen des Systems Elemente rassistischer und sexistischer Sprache zu eliminieren. Sie können sich in das System schleichen, weil sie im "Sprachfutter" enthalten sind. Der Programmierer kam nach langer Befassung mit der Technik zu dem Schluss, sie meditiere, reflektiere und spüre Dankbarkeit.
Sogenannte tiefe neuronale Netzwerke können durch Sprache den künstlichen Eindruck von Gefühlen erzeugen, Symphonien komponieren und Bücher schreiben. Nun kämpft der Ingenieur gemeinsam mit der Software, die sich nach seiner Auskunft einen Anwalt genommen hat, um deren Rechte.
Menschen können alles glauben
Dass Menschen sich Chips einpflanzen lassen, um mit der Technik "zu verschmelzen", ist nicht neu. Auch Gegenständen und Software Eigenschaften von Lebewesen zuzuschreiben, ist ein alter Hut. Man kennt das von Autos, wie "Herbie", dem tollen Käfer.
Sie wie Lebewesen zu behandeln ist auch üblich, denn wenn man ein Tamagotchi, das aus den 1990er Jahren bekannte elektronische Haustier, nicht füttert, stirbt es. Das geschieht zwar nur künstlich, aber die Trauer im Spiegel des menschlichen Gefühls fühlt sich echt an.
Computersoftware besteht aus Ziffern und Zahlen
Das menschliche Bedürfnis, einer komplexen Rechenleistung eine Seele zuzuschreiben, ist erstaunlich und zugleich so menschlich, wie ein Tier als besseren Menschen zu begreifen. Dabei muss man aber eines sehen: Computerprogramme, gespeist mit einer großen Bandbreite menschlicher Gedanken, mögen sie in Tönen, Texten oder auf andere Weise verkörpert sein, sind nur Zahlenfolgen.
Künstliche intelligente Maschinen mögen in bestimmten Kontexten tatsächlich sinnvollere Antworten geben als Menschen. Das zeigen beispielsweise Schachcomputer und Übersetzungsalgorithmen.
"Siri, was fühlst Du?"
Man kann Computerprogrammen ja auch Fragen stellen. Insbesondere tatsächliche und rechtlich leicht zu beantwortende Fragen, wie: "Siri, willst Du mich heiraten?". Solche Fragen an den Apple-Sprachassistenten sind kein Problem, doch spätestens beim Standesamt wird man in die Schranken gewiesen.
Aber auch komplexe Fragen wie die, ob ein System künstlicher Intelligenz eine Seele hat, kann man ihr selbst stellen. Das kann jedermann ausprobieren. Die Antworten auf solche Fragen fallen sprachlich und philosophisch durchaus beeindruckend komplex aus. Sie klingen für den Menschen menschlich, sind aber nur umgesetzte Rechenmodelle vom Maschinen.
Gefühle im Spiegel des Menschen
Der Mensch vollbringt es also, Computer Rechnungen rechnen zu lassen, die richtigere oder sinnvollere Ergebnisse hervorbringen können, als die Gedanken, mit denen er sie füttert. Sie bleiben aber nur ein Spiegelbild menschlicher Gedanken, in denen man die Rechnung nicht mehr erkennt.
Ihnen Gefühle oder gar eine Seele beizumessen, ist Illusion. Aber auch die kann man für echt halten oder, wenn man dazu bereit ist, an deren Seele glauben. Existent wird sie so nur im Spiegel menschlicher Gedanken.
Verwendete Quellen:
- washingtonpost.com: The Google engineer who thinks the company’s AI has come to life
- nzz.ch: «Ich erkenne eine Person, wenn ich mit ihr rede»: Dieser Google-Mitarbeiter glaubt, dass eine künstliche Intelligenz Bewusstsein erlangt hat
- cajundiscordian.medium.com: Is LaMDA Sentient? — an Interview
- wired.com: Blake Lemoine Says Google's LaMDA AI Faces 'Bigotry'
- huggingface.co: GPT-J
- derstandard.at: Künstliche Intelligenz droht im Gespräch, "die Menschen auszuschalten"
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.