Beim gestrigen "Tatort" übernahm ein Überwachungsprogramm die Kontrolle über sich selbst. Es wehrte sich gegen seine Abschaltung, verfolgte seinen Entwickler und manipulierte sogar Beweise. "Reine Fiktion", meint Reinhard Karger vom Deutschen Forschungszentrum für Künstliche Intelligenz.

Ein Interview

Herr Karger, was ist Künstliche Intelligenz?

Mehr News zum "Tatort"

Reinhard Karger: Künstliche Intelligenz (KI) ist die maschinelle Simulation menschlicher kognitiver Fähigkeiten.

Wofür brauchen wir Künstliche Intelligenz?

Karger: Grundsätzlich gesprochen brauchen wir Künstliche Intelligenz für Probleme, die wir Menschen selbst nicht lösen können.

Nehmen wir zum Beispiel Fukushima. Das ist eine radioaktive Ruine, die man entsorgen muss. Das ist aber sehr aufwändig, weil die Strahlung dort extrem hoch ist und die Menschen deshalb lange Dekontaminierungsphasen durchlaufen müssen.

Die Idee wäre nun, dass man Roboter schafft, die diese Arbeit in einem kontaminierten Katastrophengebiet übernehmen und sich am Ende auch noch selbst entsorgen können. Derzeit arbeitet man an solchen Lösungen, was aber außerordentlich komplex ist.

Wo nutzen wir denn Künstliche Intelligenz bereits im Alltag?
Karger: Man hat zum Beispiel die Ergebnisse der KI-Forschung in Navigationsgeräten, in Smartphones, in Sprachassistenten wie Siri oder Cortana, bei der Verbesserung von Suchmaschinen oder bei den Vorschlägen, die man zum Beispiel bei Amazon bekommt.

Das letzte Beispiel ist vielleicht etwas trivial, aber im Endeffekt sind das alles Ergebnisse aus der KI-Forschung.

Was ist denn das Schwierigste dabei, menschliche Fähigkeiten zu simulieren?

Karger: Man kann sagen, dass Computer all das, was wir gesunden Menschenverstand nennen, bei weitem noch nicht können. Richtig ist aber auch, dass es enorme Fortschritte in einzelnen Bereichen gibt.

Zum Beispiel bei der Spracherkennung, das heißt der Umsetzung von gesprochener Sprache in geschriebenen Text. Sehr viel schwieriger ist das Sprachverstehen, also die Analyse der Inhalte und dessen, was der Sprecher mit seiner Aussage gemeint hat und was er erreichen möchte.

Das gleiche gilt für das Erkennen und Verstehen von Bildern. Es gibt Fortschritte bei der Erkennung von Gegenständen, aber es ist ungleich schwieriger, die dargestellte Geschichte zu verstehen oder die zu erwartende Fortsetzung zu beschreiben.

Kinder lernen das in der Grundschule, Computer haben das Niveau noch nicht erreicht.

Im "Tatort" erkennt das Programm "Blue Sky" Besucher am Gesicht. Ist das schon möglich?

Karger: Das kommt auf die Bedingungen an. Bei einem ruhigen Hintergrund, guter Beleuchtung und der richtigen Entfernung klappt das schon sehr gut.

Bei Freizeitfotos ist das etwas anderes. Menschen können bekannte Gesichter trotz eines komplexen Hintergrunds sehr gut erkennen, sogar wenn die Person mit dem Rücken zur Kamera steht. Computern sind da noch Grenzen gesetzt.

Das Überwachungsprogramm "Blue Sky" macht sich im gestrigen "Tatort" selbständig und wehrt sich gegen die eigene Abschaltung. Ist so etwas denkbar?

Karger: Natürlich müssen Programme selbständig lernen können. Aber die Vorstellung, dass Programme einen eigenen Willen haben, im Sinne einer tatsächlichen Zielsetzung, das ist Fiktion.

Das ist nicht Science, das ist Fiction, das ist Hollywood. Es gibt eine ganze Reihe solcher Filme: "2001 – Odyssee im Weltraum", "Terminator", "I, Robot" usw. Eigentlich fing das schon beim "Zauberlehrling" von Goethe an.

Es ist sehr menschlich, eine Maschine zu verdächtigen, dass sie einen eigenen Willen hat.

Es gibt dieses Zitat eines KI-Forschers, der gesagt haben soll: "Wenn wir Glück haben, behalten uns die Roboter als Haustiere"

Karger: Da ging es um Singularity und um Superintelligenz, also um den Moment, an dem man feststellen kann, dass Mensch und Maschine den gleichen Intelligenzgrad haben. Aber was soll das sein? Wenn man sich auf einzelne Aspekte beschränkt, wie zum Beispiel das Rechnen, muss man feststellen: Da haben Menschen keine wirkliche Chance.

Wenn man aber mit Intelligenz auch meint, dass ein Mensch zum Beispiel durch eine winzige Nuance in der Stimme einen Spion entlarvt, weil er denkt "da stimmt was nicht", dann wird das mit der Singularität noch deutlich dauern.

Abgesehen davon: Wozu sollte eine superintelligente Maschine ein Haustier gebrauchen können? Im Ernst: Bei Maschinen gibt es keine Magie, kein Ich, kein Selbstbewusstsein oder einen Willen.

Das können Menschen aber gerne hinein projizieren und das machen sie ja auch. Deshalb geben Menschen ihren Autos zum Beispiel Namen und sprechen sie dann auch so an.

Gibt es bei Ihrem Zentrum trotzdem eine Stelle, die sich mit den moralphilosophischen Fragen bei Ihrer Forschung befasst?

Karger: Es gibt keine spezielle Stelle wie zum Beispiel einen Ombudsmann, aber es wird darüber gesprochen. Das sind im Prinzip die gleichen Fragen wie bei der Messerherstellung in Solingen: Wie scharf darf ein Messer sein? Was werden meine Kunden mit diesem Messer machen? Kann ich ein Messer bauen, mit dem man nur Äpfel schneiden kann, aber sonst nichts anderes?

Am Ende sind das alles nur Werkzeuge. Die Gefahr ist nicht das Werkzeug, sondern derjenige, der es bedient. Die Technologie ist nicht das Problem, sondern die Politik. Wir brauchen keine Moralbeauftragte bei der Herstellung von Festplatten. Wir brauchen Moralbeauftragte bei den Regierungsstellen, die Grenzen überschreiten.

Wir wollen alle Smartphones, mobiles Internet, Videostreaming oder Fotos auf Festplatten. Aber selbstverständlich kann das alles auch überwacht werden.

Reinhard Karger ist Unternehmenssprecher des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Das DFKI beschäftigt sich in insgesamt 16 Forschungsbereichen mit dem Thema Künstliche Intelligenz und hat Standorte in Saarbrücken, Kaiserslautern, Bremen und Berlin. Mitgesellschafter des DFKI sind unter anderem Google, Microsoft, SAP, die Universität Bremen oder die Bundesländer Rheinland-Pfalz, Saarland und Bremen.

Alle Themen zu "Tatort"

JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.