Bitte warten...

KI-Einsatz im Banking – Fairness ist Trumpf

Künstliche Intelligenz (KI) ist eine bedeutende Schlüsseltechnologie des digitalen Wandels in der Finanzwelt und zukünftig wichtiger Bestandteil neuer Geschäftsmodelle, Anwendungen, Prozesse und Produkte. Der Autor warnt in diesem Beitrag jedoch: Die KI ist nicht fehlerfrei, und sie sollte entsprechend überwacht werden.

Artikelbild: iStock.com/Zolnierek


Technologiegestützte Finanzdienstleistungen haben nicht nur die etablierten Anbieter (Banken, Versicherungen, Wertpapierfirmen, Pensionsfonds etc.) im Angebot, diese werden zunehmend auch von großen Nicht-Finanzunternehmen offeriert, einschließlich der sogenannten BigTechs, wie Internet-Unternehmen, Geräteherstellern, Handelsplattformen und Telekommunikationsbetreibern.

 
Mit der seit November 2022 frei zugänglichen Anwendung Chat-GPT von OpenAI erkennen Verbraucher und Unternehmen neue Vorteile und Anwendungsmöglichkeiten von generativer KI. Diese kann neue Inhalte in Form von Text, Bild, Video, Audio und Softwarecode generieren und ermöglicht die Kommunikation in natürlicher Sprache ohne Vorkenntnisse. Wenn zunehmend eine Software qualitativ hochwertige Inhalte in fast allen Lebensbereichen produziert, hat dies enorme Auswirkungen auf sämtliche Lebensbereiche von Verbrauchern, Unternehmen und der gesamten Gesellschaft.


KI trägt jedoch das Risiko eines systematischen Prognosefehlers (Bias) in sich. Die algorithmische Voreingenommenheit (Algorithmic Bias) in KI-Anwendungen kann den erwarteten Nutzen von KI-Anwendungen negativ beeinträchtigen und in Einzelfällen sogar das komplette System infrage stellen, z.B. bei vorliegender Diskriminierung, unlauteren Praktiken oder Verlust der Autonomie über das System.


Kreditinstitute müssen sich bei der Entwicklung von KI-Anwendungen mit dem Thema auseinandersetzen, weil die Systeme in der Regel große Mengen personenbezogener Daten analysieren, um Korrelationen zu erkennen und Zusammenhänge abzuleiten. Dabei können die Auswirkungen der Entscheidung auf den Menschen beträchtlich sein, wie beispielsweise der Zugang zu Krediten, Zinsen, Gebühren etc.


Das Problem der algorithmischen Voreingenommenheit
KI kann eine unbeabsichtigte, unerwünschte Verzerrung erzeugen und damit gegen grundlegende Rechte und/oder zu Ergebnissen und Auswirkungen führen, die als ungerecht empfunden werden. Die Ursachen sind vielfältig. So können sich die Daten nur auf eine bestimmte Gruppe oder Klasse von Objekten/ Personen beziehen, oder die Daten sind unvollständig, fehlerhaft oder gar nicht vorhanden.


Zum Beispiel stand die Suchmaschine Google in der Kritik: Sie würde bei Anzeigen für Führungspositionen weiße Männer bevorzugen im Vergleich zu afroamerikanischen Frauen. Auch Amazon musste sich mit dem Vorwurf auseinandersetzen, nachdem der in der KI-Anwendung zur Rekrutierung neuer Mitarbeitenden implementierte Rekrutierungsalgorithmus eine „geschlechtsspezifische Voreingenommenheit" gegenüber Frauen aufwies.


Im Finanzbereich besteht das Problem der algorithmischen Voreingenommenheit insbesondere im vorhandenen Datenbestand, weil dieser im Wesentlichen auf von den Kunden selbst genannten Angaben basiert.

(…)

Den vollständigen Artikel aus der Ausgabe „die bank“ 08.2023 können Sie bei Genios kaufen.

Autor:
Prof. Dr. Dirk Neuhaus, MBA, ist Professor für Informationssysteme in Finanzdienstleistungsunternehmen an der Hochschule für Finanzwirtschaft & Management (HFM) in Bonn. Er forscht auf dem Gebiet der Künstlichen Intelligenz.