KI dringt immer weiter in den Alltag vor. Aber wie damit umgehen? In der Science-Fiction ist Künstliche Intelligenz oft Teil der Handlung. Können wir daraus etwas lernen? Ja, meint die Berliner Politikwissenschaftlerin Isabella Hermann. Wenn auch vielleicht auf andere Art, als man denken könnte.

Elon Musk, Mark Zuckerberg und andere Stars des Silicon Valley lassen sich gerne von Science-Fiction inspirieren. Eine fiktive Online-Welt namens Metaverse aus dem Roman "Snow Crash" von Neal Stephenson etwa erinnert stark an das, was Zuckerberg mit seiner Firma Meta vorhat: das Internet als virtuelle 3-D-Welt.

Mehr zum Thema Wissenschaft

Wenn Technologieführer wie Bill Gates oder OpenAI-Chef Sam Altman vor einer KI warnen, die die Menschheit "auslöschen" könnte, denken sie vermutlich an menschenmordende Maschinen wie in "Terminator" oder "Matrix". Doch was bedeutet es, wenn das Silicon Valley vor den eigenen Visionen warnt? Und was können wir aus der Science-Fiction über den Umgang mit KI lernen?

Die Berliner Science-Fiction-Analystin Isabella Hermann hat sich intensiv mit den KI-Visionen in der Science-Fiction beschäftigt.

Frau Hermann, wir erleben, wie Künstliche Intelligenz unseren Alltag verändert. ChatGPT und andere KI-Programme schreiben uns Texte, generieren Bilder oder komponieren. Künstler sehen ihr Urheberrecht in Gefahr. Hat die Science-Fiction diese "generative KI" vorausgesehen?

Isabella Hermann: Auf jeden Fall! Denn jede KI in der Science-Fiction, die nicht auf Datenbanken zugreift, ist eine generative KI. Zum Beispiel das Skynet aus den "Terminator"-Filmen.

Also die fiktive Künstliche Superintelligenz, die einen Krieg gegen die Menschen führt.

Skynet ist aus einem neuronalen Netz entstanden, also aus derselben Technologie, auf der die heutige KI basiert. Skynet generiert selbst Inhalte, zum Beispiel im vierten "Terminator"-Film "Salvation" das Bild einer Frau, durch das es spricht. Aber die alltäglichen Probleme, die wir mit der heutigen generativen KI haben, also Deepfakes oder Urheberrechtsfragen, kommen in der Science-Fiction kaum vor. Das ist dramaturgisch nicht interessant genug. Science-Fiction braucht Drama.

Ist es nicht dramatisch, wenn Drehbuchautoren und andere Künstler sich um die Früchte ihrer Arbeit betrogen sehen?

Nun, es gab vereinzelt schon Science-Fiction dazu, aber die war nicht erfolgreich. In dem Film "Simone" von 2002 wird eine digitale Schauspielerin berühmt. Ich habe ihn kürzlich angesehen und er behandelt sehr genau die Probleme der generativen KI, wie wir sie heute tatsächlich sehen. Aber damals wurde der Film verlacht. Die Story funktioniert überhaupt nur, weil die KI zum Akteur wird. Also genau wie bei "Terminator" oder wie bei "Matrix", wo sich die KI ja so weit entwickelt, dass sie den Endkampf zwischen Mensch und Maschine ausführt.

"Das ist der Marketing-Gag Nummer 1!"

Isabella Hermann darüber, warum Firmen vor der eigenen KI warnen

Düstere Visionen wie in "Matrix" dürften Elon Musk und andere vor Augen haben, wenn sie vor einer Künstlichen Superintelligenz warnen, die die Menschheit vernichten könnte. Haben sie die Lektionen aus der Science-Fiction gelernt?

Das halte ich für einen totalen Ablenkungsdiskurs!

Bevor wir dazu kommen, wovon Musk und Co. mit ihrem Statement ablenken - haben sie nicht einen Punkt, wenn sie sagen, dass man schon heute Vorkehrungen gegen eine künftige Superintelligenz treffen sollte? Es ist ja nicht auszuschließen, dass in einigen Jahrzehnten etwas Ähnliches entsteht.

Das ist richtig. Aber ich glaube nicht, dass das die Absicht hinter solchen Warnungen aus dem Silicon Valley ist. Ich habe mir eines dieser Statements einmal genauer angesehen. Das "Center for AI Safety" (zu Deutsch: Zentrum für KI-Sicherheit) forderte vor etwa einem Jahr, das globale Risiko der Auslöschung der Menschheit durch eine KI zu mindern. Zu den Erstunterzeichnern gehört zum Beispiel Sam Altman, CEO von OpenAI. Da frage ich mich: Wenn Altman vor einer mächtigen KI warnt, warum entwickelt er dann mit seiner Firma genau diese?

OpenAI ist der Hersteller von ChatGPT und hat sich explizit zum Ziel gesetzt, eine allgemeine Künstliche Intelligenz zu entwickeln, also grob gesagt eine KI, die so intelligent ist wie ein Mensch. Von da aus ist der Weg zur Superintelligenz nicht mehr weit. Und warum warnt Altman nun genau davor?

Das ist der Marketing-Gag Nummer 1! Sie sagen: Wir bauen so mächtige Dinge, dass sie die Menschheit vernichten können. Was wir nicht alles können!

Das klingt plausibel, aber ist das wirklich so?

Es gibt auch Forschung dazu. Der Techniksoziologe Lee Vinsel etwa nennt das "Criti-Hype". Darunter versteht er das Phänomen, dass Unternehmer, Wissenschaftlerinnen oder Journalisten die negativen Seiten einer Technologie hypen und der Hype damit nur noch weiter aufgebläht wird. Leute wie Altman nutzen die dystopischen Bilder der KI zudem als PR-Gag, um von den nüchternen Themen abzulenken. Zum Beispiel: Wie gehe ich mit den Mitarbeitern in meiner Firma um? Wie steht es mit Gewaltvideos auf meiner Plattform? Wie steht es mit dem Urheberrecht?

Das Silicon-Valley drückt sich also um eine Debatte über die aktuellen Probleme der KI. Science-Fiction-Filme oder -Literatur befassen sich auch kaum mit diesen Fragen, sagen Sie. Können wir dennoch aus der Darstellung von KI in der Science-Fiction etwas lernen?

Wir können viel für unsere Gegenwart lernen, wenn wir KI in der Science-Fiction metaphorisch deuten.

Als was?

Als totalitäre Systeme, als übergeordnete Strukturen oder Institutionen, gegen die wir uns nicht wehren können. Die Themen Angst und Unterdrückung lassen sich wunderbar mit KI, Robotern und Aliens erzählen. Das kann sehr real sein: Ein Skynet kann metaphorisch für einen Konzern oder einen Staat stehen. Und wenn man es so interpretiert, dann warnen Sam Altman und die anderen in diesem Statement vor sich selbst!

Ist es in der Science-Fiction wirklich nur metaphorisch gemeint? Man kann KI ja tatsächlich als eine Art Alien, als eine Macht von außen betrachten. Auch wenn wir sie selbst gebaut haben, auch wenn sie noch kein Bewusstsein hat, kann sie eine Eigendynamik entwickeln. Selbst die Entwickler von neuronalen Netzen verstehen kaum, wie diese zu ihren Entscheidungen kommen, es sind Blackboxes. Ist da nicht tatsächlich eine Form von Wesenheit, die nicht menschlich ist und die dadurch gefährlich werden kann?

In der Science-Fiction vermischt sich das. Es ist die Kunst, da immer hin und her zu wandern: Ist es noch Metapher oder schon real? Ich betrachte Science-Fiction nicht nur als Genre, sondern als Denkkompetenz. Sie zwingt uns, bestimmte Denkrichtungen, die wir haben, zu hinterfragen. Aber wir dürfen nicht vergessen, dass hinter der heutigen KI Menschen stecken. Es mögen Blackboxes sein, aber Menschen haben sie entwickelt und die haben Interessen. Oft sind es die großen Technologieunternehmen, die Profit machen wollen. Das wird verschleiert, wenn man sagt, dass die KI jetzt ein Bewusstsein hat und für sich selbst steht. Wenn man in Statements verbreitet, dass die KI so mächtig ist, dann kann man sie auch nicht regulieren. Deshalb vermarkten diese Firmen das so. Sie wollen nicht reguliert werden.

OpenAI sagt, dass sie selbst ihre KI an menschliche Werte anpassen wollen. Sie nennen das "Alignment".

Das finde ich sehr problematisch. Als Politikwissenschaftlerin tue ich mich da sehr schwer, weil ich immer den Menschen dahinter sehe. Also bevor man eine ethische KI konstruiert, sollte man lieber die Menschen dahinter regulieren.

Lesen Sie auch

In der Science-Fiction gibt es viele Beispiele von Maschinen, die kaum von Menschen unterscheidbar sind, Androiden wie im Film "Ex Machina" oder im deutschen Film "Ich bin dein Mensch", in dem eine Single-Frau einen neuartigen Roboter testen soll, der die Rolle eines Partners übernimmt. Wie können wir solche Androiden deuten?

Auch da geht es nicht um die Technik. In keinem der beiden genannten Filme wird plausibel gemacht, wie diese Androiden gebaut werden. Vielmehr wird der Roboter zur Projektionsfläche für menschliche Probleme. In "Ich bin dein Mensch" zum Beispiel geht es um die Frage: Was wollen wir von einem Partner? Eigentlich will man einen Partner, der perfekt ist. Aber bitte nicht zu perfekt, sonst ist es langweilig. Und was heißt das dann? Und wie? Solche Fragen werden verhandelt. In "Ex Machina" geht es um ganz andere Fragen.

In diesem Film baut der Chef eines Technologieunternehmens in seinem abgelegenen Privatlabor einen weiblichen humanoiden Roboter namens Ava.

Der Regisseur Alex Garland hat in einem Interview gesagt, dass es in dem Film um Genderkonstruktion geht, also darum, wie viel vom Geschlecht eines Menschen gegeben und wie viel konstruiert ist. Der Roboter ist dafür eine perfekte Projektionsfläche. Mit einer echten Frau würde der Film nicht funktionieren. Ava hat das ganze Wissen einer Internet-Suchmaschine. Und was lernt sie? Sie lernt: Ich habe einen weiblichen Körper und sehe gut aus. Ich kann Männer manipulieren. So bricht sie aus ihrem Gefängnis aus. Und es ist wirklich verrückt, wie viele feministische Diskussionen das auslöst. Man kann sich fragen: Ist es die Angst der Männer, dass Frauen zu mächtig werden? Oder geht es darum, dass Emanzipation möglich ist, dass man sich wirklich befreien kann?

Man kann es aber auch technisch interpretieren. Im Film soll der Programmierer Caleb in Gesprächen testen, ob Ava ein Bewusstsein hat. Ava wirkt auf Caleb menschlich und sympathisch. Doch am Ende begeht sie einen eiskalten Mord und sperrt Caleb ein, um aus dem Labor zu entkommen. Es war ein Fehler, der Maschine Menschlichkeit zuzuschreiben. Könnte der Film nicht genau davor warnen, die KI als menschliches Gegenüber wahrzunehmen?

Natürlich kann man das so interpretieren und das ist völlig in Ordnung. In der Science-Fiction gibt es ein Kontinuum zwischen der Interpretation als mögliche technische Entwicklung und als Metapher. Das beschreibe ich in meinem Buch. Und das macht Science-Fiction so interessant! Sie funktioniert auf allen Ebenen. Es werden tatsächlich weibliche humanoide Roboter entwickelt, sogenannte Fembots.

Sollten Politiker mehr Science-Fiction sehen oder lesen, um etwas über KI zu lernen?

Ja, das wäre gut. Aber bitte mit Anleitung. Sonst besteht die Gefahr, dass Politiker Science-Fiction zu einseitig interpretieren. Dass sie sich zum Beispiel fragen: Brauchen menschenähnliche Roboter Rechte oder nicht? Dann sind wir wieder bei der Diskussion, wie es der Maschine geht. Wichtig ist aber, wie es den Menschen geht. In Science-Fiction-Filmen werden die Androiden von Menschen gespielt, die Illusion ist perfekt und verführt dazu, sich um die Roboter zu kümmern.

Sollte sich die Politik dann lieber aus der technischen Entwicklung heraushalten?

Nein, ganz im Gegenteil! Es ist ein Grundauftrag von Demokratien, zu regulieren. Wir haben auch die Chemie- und Pharmaindustrie reguliert. Wir haben sorgfältige Tests für neue Medikamente. Ich rede nicht von Überregulierung. Aber mit der KI wird eine Technologie entwickelt, die bewusst eingesetzt wird, um Menschen zu manipulieren. Eine Regulierung ist unabdingbar und der AI-Act der Europäischen Union ist ein guter Anfang.

Wir haben jetzt viel über düstere KI-Visionen gesprochen. Gibt es in der Science-Fiction auch positive KI-Utopien?

Spontan fällt mir "Pantopia" der deutschen Autorin Theresa Hannig ein. Dort gibt es eine KI, die nach den ethischen Prinzipien von Immanuel Kant arbeitet. Diese KI entwickelt sich so, dass sie eine große Macht hat. Aber sie nutzt sie positiv, für eine Art aufgeklärten Kapitalismus. Da werden zum Beispiel die externen Kosten von Produkten, also die Umweltzerstörung, mit eingerechnet, sodass es am Ende keine Ausbeutung gibt. Der Witz an der Geschichte ist, dass das Wissen, mit dem die KI arbeitet, nicht das Wissen ist, das sie selbst generiert hat. Es ist das Wissen der Menschheit. Alles ist längst bekannt. Alles ist da, alles ist analysiert.

"Diese ganzen Ideen, die die KI nutzt, wie grünes Wachstum, Nachhaltigkeit, Kreislaufwirtschaft, die kommen alle von uns."

Isabella Hermann

Die Idee, dass KI die großen Menschheitsprobleme wie Klimawandel oder Krebs lösen kann, kursiert auch im Silicon Valley und wird oft als "Technik-Solutionismus" kritisiert. Weltverbesserung durch Big Data und Maschinenintelligenz.

Ja, aber ich finde das Buch "Pantopia" vor allem dann interessant, wenn man es eben nicht technik-solutionistisch interpretiert, sondern als Gedankenexperiment. Diese ganzen Ideen, die die KI nutzt, wie grünes Wachstum, Nachhaltigkeit, Kreislaufwirtschaft, die kommen alle von uns. Also fällt auch alles auf uns zurück! Man könnte es so zusammenfassen: Die KI sind wir!

Ein schönes Schlusswort. Frau Hermann, ich danke für das Gespräch.

Über RiffReporter

  • Dieser Beitrag stammt vom Journalismusportal RiffReporter.
  • Auf riffreporter.de berichten rund 100 unabhängige JournalistInnen gemeinsam zu Aktuellem und Hintergründen. Die RiffReporter wurden für ihr Angebot mit dem Grimme Online Award ausgezeichnet.

Verwendete Quellen

  © RiffReporter

JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.