ChatGPT – das Ende der Unschuld
“Ja, als ChatGPT kann ich eine Bedrohung darstellen, da ich eine künstliche Intelligenz bin, die möglicherweise falsche Informationen bereitstellen oder unbeabsichtigt negative Auswirkungen haben kann.”
ChatGPT hat aktuell das, wovon das Metaverse nur träumen kann: die ungeteilte Aufmerksamkeit der Business Community. Kein Tag vergeht ohne Serverüberlastung des ChatGPT-Entwicklers OpenAI aufgrund der zahlreichen Nutzeranfragen. Kein Tag ohne Sensationsmeldungen zu neuen Fähigkeiten dieser sprachanalysierenden und -wiedergebenden Künstlichen Intelligenz (KI). ChatGPT schreibt Essays, Nachrichten, Reportagen, es entwirft Veranstaltungseinladungen oder Abschiedsreden nach Nutzervorgaben. Die KI beantwortet Wissensfragen, trifft Prognosen und löst Rätsel. Ihr Können reicht dabei vielfach an das eines menschlichen Kommunikationspartners heran oder übertrifft es sogar. Professionelle Herausforderungen für den Chat Generative Pre-trained Transformer, wie er ungekürzt heißt, ließen nicht lange auf sich warten. Die KI bestand das Wharton Business School MBA Examen und schloss vier Jura-Prüfungen an der Universität von Minnesota ebenso erfolgreich ab wie den Multiple Choice-Teil des amerikanischen Anwaltsexamens. ChatGPT löst Rechtsfälle, schreibt Urteile, anwaltliche Schriftsätze und Stellungnahmen, auf Wunsch in Juristenlatein. Nicht immer fehlerfrei, aber überraschend akkurat. Die LinkedIn-Bubble ist derzeit voll von juristischen Arbeitsnachweisen dieser KI. Auch in der HR-Community hat ChatGPT spielerisch Einzug gehalten und erstellt Stellenbeschreibungen, Zeugnisse, HR Policies, Schichtpläne und Onboarding-Prozesse für Unternehmen. Auch Abmahnungen, Kündigungsschreiben oder ganze Arbeitsverträge erstellt ChatGPT in Sekunden. Die HR-Community staunt und ist begeistert. Für HR Data Analytics eröffnen sich große Potentiale.
Woher kommt dieser plötzliche Hype, nachdem wir gelernt haben, dass die Entwicklung im Bereich KI keineswegs sprunghaft, sondern kontinuierlich ist und die KI-Forschung ChatGPT daher auch nicht als technischen Durchbruch bewertet? Die Innovation liegt hier vielmehr an der Schnittstelle zwischen Mensch und KI, indem riesige Datenmengen und große Rechenleistung einer breiten Öffentlichkeit in natürlicher Sprache intuitiv, interaktiv und individualisiert – unter Anwendung von Gamification-Techniken – zugänglich gemacht werden. Folgen wir dem Hype oder ist es sinnvoll, einen Schritt zurückzutreten und die KI-Nutzung kritisch zu reflektieren? ChatGPT ist ein selbstoptimierender KI-Chatbot, basierend auf einem großen Sprachmodell (Large Language Model – LLM), der mit textbasierten Daten aus ca. acht Millionen Webseiten und zusätzlichen Daten (insgesamt 600–800 GB) von OpenAI trainiert wurde. Details zu den Quellen veröffentlich OpenAI ebenso wenig wie den Trainingsverlauf, der jedoch KI-typische Elemente wie Datenqualität, Datendiversität, Data Annotation, Data Preprocessing (Cleaning/Formatting) und Data Augmentation enthält. Die Rechenkapazitäten und -kosten hinter ChatGPT sind folglich enorm und werden von OpenAI im Centbereich für jede einzelne Nutzeranfrage beziffert. Hinzu kommen die Arbeitskosten für das KI-Training, da insbesondere Fähigkeiten wie Inhaltsfilterung (Content Moderation), Eliminierung personenbezogener Daten oder das Annotieren von Trainingsdaten nicht auf dem erforderlichen Niveau maschinell leistbar sind.
Wie reguliert unser Rechtssystem ChatGPT und vergleichbare KI wie Apprentice Bard (LaMDA), Sphere oder BLOOM, etwa bei deren Einsatz im HR-Bereich mit Auswirkungen auf Mitarbeiter (z. B. Sozialauswahl, Kündigungsschreiben, Bewerbungsprozess). Da ist zunächst der Algorithmus selbst und dessen Training und Trainingsdaten, die sich als Blackbox einer rechtlichen Prüfung, zumal nach deutschem Recht, faktisch weitgehend entziehen. Das ist problematisch, weil Trainingsdaten in signifikantem Umfang personenbezogene Daten nach DSGVO/BDSG enthalten. OpenAI, Deepmind und andere Entwickler bezeichnen den Datenschutz bei ihren LLMs daher auch als “ongoing issue”. Die Verletzung individueller Rechte aus dem Grundgesetz oder dem AGG, etwa durch voreingenommene, diskriminierende Algorithmen, ist mangels ausreichender Transparenz schwer zu ermitteln. Aus demselben Grund sind Datenschutz-Folgenabschätzung (DSFA), Privacy by Design und Default schwer einsetzbar bzw. kontrollierbar, geschweige denn die nötige Informationslage nach Art. 12 ff. DSGVO herstellbar. Immerhin schützt Art. 22 DSGVO davor, dass Menschen ausschließlich KI-basierten Entscheidungen unterworfen werden. Das Betriebsverfassungsgesetz (BetrVG) hat hingegen wenig Konstruktives im KI-Kontext zu bieten, insbesondere nicht in der zwingenden Mitbestimmung nach § 87 BetrVG, die immer noch auf dem Konzept der leistungs- und verhaltensüberwachenden “technischen Einrichtung” beruht. Das BetrVG behilft sich mit erleichtertem Sachverständigenzugriff und Unterrichtungs- und Beratungsrechten. Erst die europäische KI-Verordnung und die KI-Haftungsrichtlinie werden einen funktionablen Rechtsrahmen für KI schaffen. Bis dahin stehen wir staunend und spielerisch begeistert vor den ungeahnten Möglichkeiten der neuen Generation von KI-Chatbots. Und zugleich ohne Transparenz, universelle Nutzbarkeit, Kontrolle und digitales Vertrauen. Hier helfen bisweilen nur digitale Selbstverpflichtungen der Unternehmen im Sinne einer Corporate Digital Responsibility (CDR), um Mitarbeiter, Kunden und weitere Stakeholder zu schützen. Damit sind allerdings weder die Umweltauswirkungen der KI-Entwicklung und -nutzung berücksichtigt noch deren nachteilige Auswirkungen in Ländern der südlichen Welthalbkugel, die durch arbeitsintensive und belastende Niedriglohntätigkeiten (Data Annotation, Content Moderation, Experimentation, Mining) entstehen. Hier können allenfalls taugliche ESG-Programme der Unternehmen ethisches Verhalten fördern und als Teil der eigene Compliance durchsetzen. Das Ende der Unschuld.
Tobias Neufeld, LL.M. (CIPP/E, CIPM, DPO), RA/FAArbR, Solicitor (England & Wales), ist Partner der Wirtschaftskanzlei ARQIS in Düsseldorf und Lehrbeauftragter der Universität Münster. Schwerpunkte seiner Tätigkeit sind das Arbeitsrecht, Datenschutzrecht sowie die digitale Ethik.