Die Nutzung von ChatGPT gerät zunehmend in die Kritik. Stimmen aus Wirtschaft, Staat und Wissenschaft erkennen ebenso wie Datenschutzbehörden, dass der unbedachte Einsatz der Software ein Problem ist. Worauf kommt es bei einer Lösung an?

Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Bei aller berechtigten Kritik ist es weder angemessen noch hilfreich, ChatGPT pauschal für unzulässig zu erklären. Das kann nur das letzte Mittel sein. Es ist aber unverzichtbar, die moderne Technik in den europäischen Rechtsrahmen einzupassen.

Mehr zum Thema Wissenschaft & Technik

Die hochaktuelle Technik kollidiert mit Rechtsgütern und legitimen Interessen der europäischen Werteordnung. Wichtige Fragen lauten: Wie steht es um die Transparenz der Algorithmen? Wie verlässlich sind die Ergebnisse der Software? Wie schützt man Kinder und Jugendliche vor nicht altersgerechten Ergebnissen? Wie schützen die Anbieter Persönlichkeitsrechte, geistiges Eigentum und welche Vorkehrungen treffen sie gegen Fake News? In vielen anderen Kontexten ist der Bot aber völlig harmlos.

ChatGPT muss Aufklären

Wie komplex der Umgang mit ChatGPT auch sein mag: Ohne Fakten zu kennen, kann man der Technik nicht klug, konstruktiv und sinnvoll Regeln setzen. Damit die Politik agieren kann, muss der Anbieter diese Fakten schnell liefern. Der Berichterstatter des Europäischen Parlaments, Axel Voss, hat sich mit Unterstützung aus der Praxis und der Wissenschaft in einem offenen Brief mit Fragen an Open AI gewandt.

ChatGPT im Test: Wer ist schlauer - künstliche Intelligenz oder das menschliche Gehirn?

Wird künstliche Intelligenz bald menschenähnliche Fähigkeiten erreichen und eine Vielzahl an Jobs ersetzen? Nur wer weiß, wo die Grenzen einer Technologie liegen, kann sie sinnvoll einsetzen. Der Neurowissenschaftler Henning Beck stellt ChatGPT deswegen auf den Prüfstand und zeigt, wie es sich vom menschlichen Denken unterscheidet.

Auch die deutschen Datenschutzaufsichtsbehörden erwarten Antworten auf Fragen, die sie dem Unternehmen gestellt haben. Den europäischen Alleingang eines Verbots von ChatGPT durch die Datenschutzbehörde in Italien halten viele zu Recht für einen Schnellschuss. Immerhin hat er weltweit Aufsehen erregt und Europa wachgerüttelt.

Aufsichtsbehörden müssen klug und konstruktiv agieren

Aktuell müssen sich die Aufsichtsbehörden der Regulierungsaufgabe annehmen, den Anbieter von ChatGPT zu beaufsichtigen. Sie müssen Maßnahmen im Rahmen ihrer jeweiligen Zuständigkeit ergreifen. Das muss schnell gehen, wenn es etwas bewirken soll. Weil die Zuständigkeiten divers und oft unklar sind, muss man sich koordinieren.

Ein Gesetz, zumal ein europäisches, braucht Zeit. Wenn die KI-Verordnung greift, haben sich viele Gefahren von ChatGPT gegebenenfalls längst realisiert. In Brüssel ringt man dennoch mit Hochdruck um die Frage, welche Konsequenzen es hat, wenn ChatGPT als Hochrisiko-KI einzustufen ist.

Ist es angemessen, die Allzweckanwendung dem besonderen Risikomanagement-Verfahren, einer kontinuierlichen menschlichen Aufsicht und den weit reichenden Dokumentationspflichten der KI-Verordnung zu unterwerfen? Auch alle, die die Software einsetzen, müssen dann ein besonderes Handling der verwendeten Trainingsdaten vornehmen und haben Aufklärungspflichten gegenüber den Nutzern.

Verbote helfen nicht und sind rechtlich problematisch

Staaten könnten nach geltendem Recht zwar die Abrufbarkeit des Dienstes auf ihrem Gebiet technisch durch Netzsperren unterbinden. Diese Sperren sind aber zum einen leicht umgehbar. Zum anderen verbietet man damit ein Angebot, das in zahlreichen Anwendungskontexten harmlos ist. Ob das vor dem Hintergrund der Grundrechte auch von Nutzern und Anbietern verhältnismäßig ist, ist sehr fraglich.

Lesen Sie auch:

In den USA sind akute Regulierungsmaßnahmen für Software auf Basis künstlicher Intelligenz geplant. Die Telekommunikations- und IT-Behörde NTIA hat eine öffentliche Konsultation zu potenziellen Maßnahmen lanciert. Die Ergebnisse sollen helfen, politische Empfehlungen auszuarbeiten. Für die Konzeption zur Umsetzung sich daran anschließender Maßnahmen kurzfristig Expertenwissen einzuholen, ist richtig. Das muss aber gezielt und planvoll, etwa durch eine Ad-Hoc-Kommission, erfolgen.

Verwendete Quelle:

  • gdd.de: Offener Brief an das US-Unternehmen Open AI als Entwickler des Textroboters ChatGPT
  • dataagenda.podigee.io: Folge 35: ChatGPT- Die Informationsgesellschaft entdeckt das Feuer
  • ntia.gov: National Telecommunications and Information Administration
    United States Department of Commercentia
  • ntia.gov: NTIA Seeks Public Input to Boost AI Accountability
Interessiert Sie, wie unsere Redaktion arbeitet? In unserer Rubrik "So arbeitet die Redaktion" finden Sie unter anderem Informationen dazu, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte kommen. Unsere Berichterstattung findet in Übereinstimmung mit der Journalism Trust Initiative statt.


JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.