Persönlichkeitsrechtsverletzungen erfolgen neuerdings auch mit Hilfe Künstlicher Intelligenz (KI). Das eröffnet eine neue Dimension.

Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Das von der Zeitschrift "Aktuelle" bei ChatGPT "in Auftrag gegebene" Interview mit Michael Schumacher ist ein Beispiel für die Möglichkeiten der neuen Technik, für die journalistische Standards, Anstandsregeln oder schlicht guter Geschmack keine Rolle spielen. Dass die Chefredakteurin – unabhängig von juristischen Spitzfindigkeiten der medienrechtlichen Zulässigkeit ihres Vorgehens – den Hut nehmen musste, macht zumindest den Preis derartig unpassender Spielereien für etwaige Nachahmer klar.

Mehr zum Thema Digitales

ChatGPT schert sich nicht um Persönlichkeitsrecht

Völlig ungeklärt ist aber, wie man den Beitrag von OpenAI, dem Anbieter von ChatGPT, gewichten soll. Denn der Bot hat das "Interview" mit Michael Schumacher immerhin gegeben. Er hätte es mit Blick auf das Persönlichkeitsrecht des früheren Formel-1-Weltmeisters auch verweigern können. Weil die Software aber nicht auf Verantwortung programmiert ist und einfach loslegt, erzeugt sie auch Falschnachrichten am laufenden Meter.

Ohne jeden Skrupel fertigt sie zum Beispiel täuschend echte Fotos von Papst Franziskus als "Fashion Victim" mit cooler weißer Daunenjacke an oder Bilder von erfundenen Gewalttaten. Der Fotograf Boris Eldagsen konnte per KI ein Foto erzeugen (lassen), mit dem er einen Kunstwettbewerb für Menschen gewann.

Er gab den Preis zurück und stieß eine Debatte über die Risiken Künstlicher Intelligenz an. Die bestehen in der Tat. Eldagsens Erfolg beim Fotowettbewerb beweist, dass man die Ergebnisse der KI menschlich nicht mehr hinreichend überprüfen kann.

Lüge oder Wahrheit: Eine Frage der Wahrscheinlichkeit

Das muss aber sein – bei einem verantwortbaren Einsatz von KI, von der man nicht von vornherein weiß, ob das, was sie liefert, auf Wahrheit oder Lüge basiert. Der Zugriff auf Unwahrheiten kann aus technischen Gründen geschehen, weil bestimmte Auskünfte auf Wahrscheinlichkeitsberechnungen und nicht auf Faktenchecks beruhen.

Häufig geäußerte Lügen erhalten algorithmisch den Vorzug vor der Wahrheit. Dieser Mechanismus ist nicht nur aus sozialen Medien bekannt, er betrifft auch die automatische Vervollständigungsfunktion von Suchmaschinen.

Wahrheiten können unterdrückt werden

Am Ende ist niemand davor gefeit, dass neben gezielten Persönlichkeitsrechtsverletzungen auch Unwahrheiten absichtsvoll erzeugt oder Wahrheiten gezielt unterdrückt werden. Zu einigen Anfragen etwa schweigt der Bot. So wurden, auf Marktdurchdringung fokussierend, Antworten auf Fragen verweigert, die sich auf die Menschenrechtssituation der Uiguren bezogen – mutmaßlich, weil darüber in China nicht berichtet werden darf.

Grenzen für den Bot

Anwendungen wie ChatGPT sind also stets mit Vorsicht zu genießen. Aktuell wird der Dienst weltweit mit unzähligen Personendaten gefüttert. Ihn zu verbieten, bringt nichts. Für die Nutzung müssen umso dringender Regeln her.

Damit der Staat sie schaffen kann, müssen Anbieter wie ChatGPT sehr schnell erklären, wie ihre Dienste funktionieren, zu welchen Zwecken sie betrieben werden und wie sie sich für ihre Technik verantworten wollen.

ChatGPT im Test: Wer ist schlauer - künstliche Intelligenz oder das menschliche Gehirn?

Wird künstliche Intelligenz bald menschenähnliche Fähigkeiten erreichen und eine Vielzahl an Jobs ersetzen? Nur wer weiß, wo die Grenzen einer Technologie liegen, kann sie sinnvoll einsetzen. Der Neurowissenschaftler Henning Beck stellt ChatGPT deswegen auf den Prüfstand und zeigt, wie es sich vom menschlichen Denken unterscheidet.
JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.