Brauchen wir eine Pause bei der Weiterentwicklung von Künstlicher Intelligenz, wie es eine Gruppe um den Tech-Milliardär Elon Musk fordert? Maybrit Illner thematisierte am Donnerstagabend die Chancen und Risiken von KI. Die Runde diskutierte über Grenzen, Transparenz und die politischen Rahmenbedingungen. Während eine Linkspolitikerin von einem offenen Waffenarsenal sprach, warnte Wissenschaftlerin Miriam Meckel vor solchen Begrifflichkeiten.

Eine Kritik
Diese Kritik stellt die Sicht von Marie Illner dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Mit Elon Musk als bekanntem Fürsprecher nahm die Forderung erst so richtig Fahrt auf: Eine Gruppe um den Twitter- und Tesla-Chef hat in einem offenen Brief zu einer Pause bei der Entwicklung von Chat-GPT und Co. aufgerufen. In dem Brief hieß es: "Wir rufen alle KI-Labore auf, sofort und für mindestens sechs Monate das Training von KI-Systemen zu stoppen, die mächtiger sind als GPT-4". Gegebenenfalls müssten Regierungen das Moratorium durchsetzen.

Mehr aktuelle News

Das ist das Thema bei "Illner"

Künstliche Intelligenz wird immer allgegenwärtiger: Sie schreibt und spricht wie ein Mensch und arbeitet zum Beispiel in der Medizin, in der Industrie, im Dienstleistungsbereich – und in Waffensystemen. Ein Riesengeschäft, aber auch potenziell "gefährlicher als die Atombombe" wie Musk behauptet?

Das diskutierte Maybrit Illner mit ihren Gästen und überschrieb ihre Sendung am Donnerstag mit der Frage: "Künstliche Intelligenz – Maschine gegen Mensch?" Dabei ging es um politische Regulation und Verbraucherschutz ebenso wie um Emotionen, gesellschaftliches Zusammenleben und den Konkurrenzkampf mit den USA und China.

Das sind die Gäste

  • Ranga Yogeshwar: "Es ist ein Dammbruch, was gerade passiert", sagte der Physiker und Wissenschaftsjournalist über Künstliche Intelligenz. Es sei eine völlig neue Qualität entstanden. Man kenne Text-, Bild- und Spracherkennung schon länger, aber: "Jetzt gibt es eine KI, die anfängt, wirklich alles gleichzeitig zu verwenden und immer leistungsfähiger wird, die sich selber optimiert", so Yogeshwar. Er warf die Frage auf: "Was wird emotional mit uns passieren?"
  • Saskia Esken (SPD): "Um iRobot geht es noch lange nicht", meinte die SPD-Parteivorsitzende. Von vielen diskutierten Szenarien sei man noch weit entfernt. "Unser Thema sind algorithmenbasierte Entscheidungen, wo wir zu regulieren haben. Wo beginnt Diskriminierung? Wo beginnt der Vorteil?", meinte die staatlich geprüfte Informatikerin. Politik müsse Rahmenbedingungen festlegen und Grenzen aufzeigen.
  • Miriam Meckel: "Das war der iPhone-Moment der Künstlichen Intelligenz", sagte die Kommunikationswissenschaftlerin und Journalistin über das Erscheinen des Programms ChatGPT. Die Anwendungsebene sei damit in eine breite Masse gekommen. "Das ist eine Veränderung in unserer kulturellen Evolution, bei der wir gerade mitten in einem Selbst-Experiment sind", sagte Meckel. Man wisse nicht, was dabei herauskommen werde. Sie erinnerte: "Alles was KI macht, entsteht dadurch, dass wir mit ihr interagieren."
  • Achim Berg: Der Manager und Präsident des Digitalverbands "Bitkom" sagte über Elon Musks Warnung: "Ich habe das dumpfe Gefühl, dass er nicht ganz uneigennützig gehandelt hat." Es sei vermutlich eine PR-Aktion. Musk sei aus der Finanzierung von ChatGTP ausgestiegen, als Microsoft eingestiegen sei. Man müsse aufpassen, sich nicht instrumentalisieren zu lassen. "Wobei er in der Grundsache eigentlich Recht hat", meinte Berg. Ein Szenario wie in China, wo Sozialpunkte vergeben würden, müsse man in Europa beispielsweise verhindern.
  • Anke Domscheit-Berg (Linke): Die Bundestagsabgeordnete und Mitglied im Ausschuss für Digitales sagte: "Als Mensch mit einer Maschine zu reden, erfordert jetzt keine speziellen Kompetenzen mehr." Zum aktuellen Zeitpunkt sei die Gesellschaft aber nicht ausreichend vorbereitet auf die KI-Revolution. "Das betrifft die Politik, die Entscheidungen treffen muss zur Regulierung. Das betrifft aber auch die ganz normale Bevölkerung." Auch auf die Veränderung von Arbeitsplätzen sei man nicht entsprechend vorbereitet.

Das ist der Moment des Abends bei "Illner"

Domscheit-Berg zeigte sich fasziniert von den Möglichkeiten, die KI Menschen bietet, die zum Beispiel nicht Programmieren oder hochgestochene Texte verfassen können. KI biete in vielerlei Hinsicht großartige Anwendungsmöglichkeiten, etwa, um Hautkrebs früher zu erkennen. Gleichzeitig habe man ein Waffenlager aufgemacht und bitte die Menschen, nicht zu schießen.

"Es ist schon ein sehr, sehr mächtiges Werkzeug", sagte die Linkspolitikerin. Man könne es für unendlich viele Dinge einsetzen und auch gefährliche Dinge damit tun. "Im Moment lassen wir ein Waffenarsenal praktisch mit einem offenen Scheunentor stehen und jeder kann hingehen und sich bedienen und wir hoffen irgendwie, dass keiner Böses tut. Wir sind, was die Regulierung angeht, noch nicht darauf eingestellt", fürchtete sie.

Dazu passte, was Yogeshwar einige Minuten später sagte: "Es ist eine Blackbox, die Eigenschaften hat, die selbst die Wissenschaftler überraschen. Die Fachleute sagen selbst: 'Wir verstehen nicht so richtig, was da passiert'."

Das ist das Rede-Duell des Abends

"Wir müssen zwei Schritte weiterdenken", forderte Yogeshwar. Man rede jetzt über die Risiken, die man heute sehe. "Ich spule einfach mal kurz die Zeit zurück: Als die sozialen Netzwerke anfingen, war es für jeden von uns großartig zu sagen: 'Connecting the world!'". Niemand habe gesagt: "Oh, das ist nicht gut".

Heute wisse man, dass die sozialen Netzwerke auch Fake News, Sucht, Polarisierung und Verhaltensänderungen bei jungen Menschen hervorgebracht hätten. "Wir haben ein System geschaffen und wussten nicht, welche Risiken da sind und jetzt sind sie da. Diese Risiken können wir nicht mehr zurückfahren", sagte er weiter. Diesen Fehler dürfe man nicht noch einmal machen, man müsse einen Moment lang innehalten und darüber nachdenken.

Meckel warnte indes: "Wenn wir mit Begrifflichkeiten wie Waffen operieren, sind wir ganz schnell auf einem falschen Pfad." Aus der Technologiegeschichte wisse man, dass wir kurzfristige Folgen überschätzen und langfristige Folgen unterschätzen würden. "Deshalb gehen wir in der Regel falsch vor, damit umzugehen", so Meckel.

Die eine Variante sei, ein Moratorium zu fordern, alles zu stoppen und von Waffen zu sprechen. Die andere Variante sei, konstruktiv und mit dem dafür notwendigen Geld mithilfe von Transparenz und Prüfverfahren dafür zu sorgen, dass man die Implementierung Schritt für Schritt verfolgen könne.

Lesen Sie auch: Kniet hier Wladimir Putin vor Xi Jinping? So lässt sich KI enttarnen

So hat sich Maybrit Illner geschlagen

Illner gelang es, das Thema in seiner Relevanz nah an den Bürger heranzuholen, stellenweise wäre es aber noch konkreter gegangen. Das betraf vor allem die Gefahren, die mit Künstlicher Intelligenz verbunden sind. Zwar betonte die Runde immer wieder, dass die künftige Entwicklung kaum abzuschätzen sei, ein paar mögliche Szenarien hätten der Debatte aber gutgetan. So blieb die Gefahr zu vage und schwammig.

Wichtig war, dass Illner viele verschiedene Facetten des Themas auf den Tisch brachte: Von Verbraucher- und Datenschutz über den Wettbewerb mit den USA und China bis hin zur Frage: "Was passiert, wenn wir keiner Information, keinem Bild, keinem Film mehr so vertrauen können wie früher?"

An den Umfragen des Meinungsforschungsinstituts Civey kann jeder teilnehmen. In das Ergebnis fließen jedoch nur die Antworten registrierter und verifizierter Nutzer ein. Diese müssen persönliche Daten wie Alter, Wohnort und Geschlecht angeben. Civey nutzt diese Angaben, um eine Stimme gemäß dem Vorkommen der sozioökonomischen Faktoren in der Gesamtbevölkerung zu gewichten. Umfragen des Unternehmens sind deshalb repräsentativ. Mehr Informationen zur Methode finden Sie hier, mehr zum Datenschutz hier.

Das ist das Ergebnis bei "Illner"

Hauptknackpunkte des Abends waren die Fragen: "Welche Gefahren drohen?", "Überwiegt Nutzen oder Risiko?" und "Wie nah sind die Szenarien?". Interessant waren auch die philosophischen Einschläge – etwa, ob Künstliche Intelligenz denkt. Ein wichtiges Ergebnis hielt Domscheit-Berg fest, als sie von herrschendem Misstrauen in demokratische Prozesse, Medien und bestimmte Institutionen sprach und dann erinnerte: "In so eine Zeit kommt jetzt ein Medium, das uns ermöglicht, perfekt zu lügen und das mit Beweisen zu unterlegen."

JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.