R&W Abo Buch Datenbank Veranstaltungen Betriebs-Berater
 
 
 
CB 2023, I
Behringer 

CB 2023, Heft 09, Umschlagteil S. I (I)

Künstliche Intelligenz und Compliance

Die Regulierung von KI muss Teil jedes Compliance-Managements werden.

Chat GPT, inzwischen in Version 4 verfügbar, ist seit Ende 2022 in aller Munde. Der einfache Zugang gibt allen Interessierten die Möglichkeit, auszuprobieren, was Künstliche Intelligenz (KI) zu leisten imstande ist – und eben auch nicht leisten kann. Es ist erstaunlich, was das neue Tool kann.

Aber es ist auch erschreckend, wie viele Fehlinformationen durch Chat GPT verbreitet werden. KI kommt eben doch an seine Grenzen.

Auf die Frage, wie viele Falschinformationen das System pro Tag produziert, räumt Chat GPT selbst ein, dass es „keine eigene Wissensbasis hat und Informationen nicht eigenständig überprüfen kann“. Daher könne es vorkommen, „dass GPT falsche oder irreführende Informationen generiert, wenn ihm solche Informationen vorgelegt werden oder wenn es auf unzuverlässige Quellen zugreift. Die Qualität der generierten Informationen hängt stark von der Qualität der Eingaben und des Kontexts ab, die dem Modell zur Verfügung gestellt werden. Es ist wichtig, kritisch zu bleiben und Informationen, die von KI-Modellen generiert werden, zu überprüfen und mit anderen vertrauenswürdigen Quellen abzugleichen, um sicherzustellen, dass sie korrekt sind.“

Für viele Berufsfelder und Bereiche des täglichen Lebens hat diese neue Technologie dennoch enorme Wirkungen, die heute in ihrer ganzen Tragweite noch nicht zu überschauen sind. Auch für die Funktionen im Bereich Risk, Fraud und Compliance ergeben sich erhebliche Herausforderungen. KI kann präventiv wirken, Kontrollen übernehmen oder Informationen liefern. So können Chatbots Compliance Help Desks übernehmen, zumindest für standardisierbare Abfragen. Das Problem wird sein, dass Aussagen, was eindeutig verboten und erlaubt ist, gut automatisierbar sind. Aber die Zwischentöne, wo es keine ganz eindeutigen Regeln gibt, werden nur schwer durch Chatbots zu übernehmen sein.

Überlegungen, dass KI Entscheidungsvorschläge macht, die auch genutzt werden können, die Einhaltung der Business Judgement Rule zu belegen, gibt es in der wissenschaftlichen Literatur. Dabei gehen manche Wissenschaftler so weit, die Verwendung von Algorithmen verpflichtend zu machen, um eine neutrale Entscheidung zu belegen. Da die KI Stereotypen in ihre Entscheidungen einbezieht, ist dieser Vorschlag sicherlich (noch) nicht umsetzbar, zeigt aber die mögliche Tragweite eines Einsatzes von Künstlicher Intelligenz auf. Ausserdem kann die KI Muster entwickeln, die auf eigentlich irrelevanten Kriterien beruhen. Auch dadurch können Fehlentscheidungen entstehen. Das Problem dabei: Der verwendete Algorithmus ist nicht transparent nachvollziehbar.

Neben den Chancen eines Einsatzes von Künstlicher Intelligenz im Compliance-Management selbst, wird das Vordringen von KI Compliance noch auf andere Weise beschäftigen: Die Regulierung von Künstlicher Intelligenz selbst muss eingehalten werden und Teil jedes Compliance-Managements werden. Auch hier warten viele Herausforderungen auf Compliance-Manager. Hier ist zu schauen, wie sich die Regulierung entwickelt. Lernende Systeme, wie sie KI darstellen, entwickeln in ihrer Einsatzzeit ständig neue Muster, wie sie Entscheidungen treffen. Welche Muster das sind, hängt im Wesentlichen von den Daten ab, mit der die KI arbeitet. Dies wiederum liegt nicht mehr im Einflussbereich des Herstellers der KI, sondern in den Händen des Anwenders. Insofern ist die Verantwortung für das, was das Produkt macht, nicht eindeutig zuzuordnen.

Chat GPT selbst gibt folgende Antwort auf die Frage, wer die Verantwortung für Fehlentscheidungen der KI trägt: „Die Verantwortung für Fehlentscheidungen von Chat GPT liegt in erster Linie bei den Entwicklern und Forschern, die das Modell trainiert und implementiert haben. Sie sind dafür verantwortlich, das Modell angemessen zu trainieren, um Fehlentscheidungen zu minimieren und sicherzustellen, dass es ethische Standards einhält. Darüber hinaus tragen auch die Unternehmen oder Organisationen, die Chat GPT einsetzen, eine gewisse Verantwortung. Sie sollten sicherstellen, dass das Modell in einer Umgebung eingesetzt wird, in der es angemessen und ethisch verwendet wird. Dies kann beispielsweise die Implementierung von Überwachungs- und Kontrollmechanismen beinhalten, um potenzielle Fehlentscheidungen zu erkennen und zu korrigieren.“

Abbildung 1

Prof. Dr. Stefan Behringer ist Chefredakteur der ZRFC (Zeitschrift Risk, Fraud & Compliance) sowie Leiter des Kompetenzzentrums Controlling am Institut für Finanzdienstleistungen Zug IFZ der Hochschule Luzern.

 
stats