Bei Amazon ist man zurückhaltend, wenn es darum geht, generative KI bei der Arbeit zuzulassen. Jedenfalls warnen interne Dokumente im Unternehmen vor der Verwendung, berichtet Business Insider. Viele andere Unternehmen sind hier nicht so vorsichtig. Datenschützer warnen vor den Risiken.

Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Ob man generative KI, die auf Anfrage autonom Texte oder Bilder erzeugen kann, im Unternehmen einsetzen darf, muss der Arbeitgeber jedenfalls bewusst entscheiden. Will er das, dann muss er den Dienst nicht nur bezahlen, sondern dessen Einsatz auch verantworten. Um eigene und arbeitnehmerseitige Verstöße zu vermeiden, muss der Arbeitgeber die Einsatzbedingungen regeln und kontrollieren.

Mehr zum Thema Digitales

ChatGPT im Job über private Accounts der Beschäftigten

Aber wie ist es, wenn der Einsatz generativer KI im Unternehmen zwar über die IT des Unternehmens, aber über persönliche Accounts der Beschäftigten erfolgt? Der Chef erwirbt dann keine Lizenz und was geht ihn schon an, was die Beschäftigten über ihre privaten Konten machen, mag es auch dem Unternehmen zugutekommen.

Betriebsrat und KI

Für den Schutz der Beschäftigten ist die Arbeitnehmervertretung zuständig. Geht es denn den Betriebsrat etwas an, wenn die Nutzung im Betrieb über persönliche Accounts der Beschäftigten erfolgt? Für das Arbeitsgericht Hamburg ist die Nutzung von ChatGPT nicht mitbestimmungspflichtig, soweit der Arbeitgeber dies über persönliche Accounts gestattet hat, weil es an der Möglichkeit der Überwachung fehle. Er könne die Nutzung des KI-Systems nicht überprüfen. Der zur Überwachung geeignete Browser zum Aufruf des Bots sei bereits mitbestimmt eingeführt worden. Wortwörtlich unterscheide sich ChatGPT insofern nicht von einer juristischen Wissensdatenbank.

Chatbots können Kündigungen schreiben

Diese Aussagen muss man genauer betrachten. Zum einen sind Sprachmodelle unter Einsatz generativer KI keine Wissensdatenbanken. Eine juristische Datenbank bietet auf Basis der Programmierung des Anbieters Fundstellen an. Dieser gibt die Reihung vor und das stellt ein Problem für die Neutralität der Suchergebnisse dar. Aber ein Chatbot schreibt und begründet im Unterschied dazu auf Anfrage (Prompt) im Unternehmen eine Kündigung und beim Arbeitsgericht ein Urteil. Das geschieht unbeeinflusst von Launen und Sachverstand. Was der Bot auswirft, ist nämlich kein Ergebnis menschlichen Handelns, sondern einer Wahrscheinlichkeitsrechnung unter Simulation von Plausibilität.

Arbeitgeber muss Datenströme verfolgen

Zum anderen – so Markus Wünschelbaum, Referent beim Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit und Experte für Beschäftigtendatenschutz – müsse der Arbeitgeber als Verantwortlicher für die Datensicherheit - etwa zum Schutz vor Cyberangriffen und Wirtschaftsspionage - auch dann die Datenströme des Beschäftigten verfolgen können, wenn dieser sich mit seinem privaten Account auf dienstlichen Geräten einloggt.

Möglichkeit der Überwachung

Darüber hinaus beschränkt sich die Mitbestimmungspflicht eines IT-Tools nicht auf einsehbare Logdaten eines Browsers, sagt Wünschelbaum. Sie fange da erst an, erklärt er und verweist auf den Überwachungsdruck. Eine Überwachungskamera im Betrieb werde nicht erst dann mitbestimmungspflichtig, wenn die Sichtung ihrer Aufnahmen vom Arbeitgeber protokolliert wird: Ihr Einsatz sei das Problem.

Was früher noch unter Begriffen wie "Big Data" und "People Analytics" fraglos als mitbestimmter Einsatz von überwachenden Analyse-Tools bezeichnet wurde, gelte heute auch für das wirkmächtige ChatGPT. Mitbestimmt sei gerade die Möglichkeit zur Überwachung durch den Einsatz des IT-Tools selbst. Wenn der Arbeitgeber für alle Beschäftigte eines Unternehmens die Nutzung von ChatGPT über private Accounts pauschal zu beruflichen Zwecken freigibt, gilt das auch für die Personalabteilung, disziplinarische Vorgesetzte und die Geschäftsleitung.

Analyse von Mitarbeiterverhalten möglich

Der Einsatz zur Analyse von umfangreichen Gruppendaten, um das Potenzial einzelner Arbeitnehmer (Low Performer?) oder Verhaltensauffälligkeiten im Rahmen einer Internal Investigation zu ermitteln, sind dabei nur ein paar naheliegende Möglichkeiten, die einen handfesten Überwachungsdruck durch den Einsatz von ChatGPT begründen.

Halluzination trifft den Kern der Mitbestimmung

Die jenen Systemen innewohnende Gefahr, durch Halluzinationen falschen Output zu erzeugen, trifft den Kern der betrieblichen Mitbestimmung: Beschäftigte sollen davor bewahrt werden, aufgrund eines intransparenten Überwachungsvorgangs keinen Einfluss auf die rein technische Überwachung und damit Bewertung ihrer Leistung zu haben. Das Betriebsverfassungsrecht sieht gerade vor, dass die Betriebsparteien über solche Anwendungsszenarien verhandeln und diese gegebenenfalls ausschließen, sagt Wünschelbaum.

Lesen Sie auch:

Datenschutzbehörde: KI im Unternehmen ist ein Risiko

Wenn die Beratungspraxis auf Arbeitgeberseite anhand dieser Entscheidung einen Weg zu Vermeidung der Mitbestimmung aufzeichnen würde, wäre das auch bei Betrachtung des Markts kurzsichtig, warnt der Experte der Hamburger Datenschutzbehörde. Jedenfalls schützt eine fehlende Mitbestimmungspflicht nicht vor der Verantwortung des Arbeitgebers für die Nutzung von KI-Systemen durch seine Beschäftigten. Im Hinblick auf das wachsende EU-Regelwerk darf der KI-Einsatz schon jetzt nicht mehr eindimensional gedacht werden.

Verwendete Quellen:

Über den Experten:

JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.