Haben nur Menschen Vorurteile? – Über die Nutzung von KI in der Kreditvergabe


Autor: Anton Knoche

Polanyi-Paradox

Wonach entscheidet eine Bankangestellte, ob ein Kunde einen Kredit erhält oder nicht? Hierzu kommen Ihnen wahrscheinlich sofort eine Reihe wichtiger Indikatoren in den Kopf: Höhe des Kredits, Sicherheiten, Einkommen, etc. - Diese Indikatoren werden weiter ergänzt durch zahlreiche kontextuelle Informationen und persönliche Empfindungen: Wirkt der Kreditantragsteller nervös? Ist das Wetter gut? - Solche Belanglosigkeiten wirken sich nachweislich auf wirtschaftlich relevante Entscheidungen aus. Am Ende entsteht so eine Kreditentscheidung, die von den Bankangestellten selbst oft als Bauchgefühl beschrieben wird und deren genaues Zustandekommen niemandem mehr bekannt ist.

Diese Erklärungsproblematik ist, nach dem ungarischen Philosophen und Gelehrten Karl Polanyi, als Polanyi’s Paradox bekannt. Es beruht darauf, dass unser Verstand oft unterbewusstes, intuitives Wissen verwendet, das durch Erfahrung und evolutionäre Instinkte entsteht. Es findet sich in vielen Lebensbereichen wieder, so sind sogar Schachgroßmeister oft nicht dazu in der Lage, ihre Züge rational zu erklären und verweisen darauf, dass diese sich einfach richtig angefühlt haben. Vor einiger Zeit noch bestimmte dieses Paradox die Grenzen der Softwareentwicklung. Nur was ein Mensch in Programmiersprache ausdrücken konnte, konnte eine Software auch ausführen. Trotz dieser Begrenzung ließen sich zahlreiche Prozesse durch regelbasierte Systeme automatisieren und rationalisieren. Andere wiederum, wie das Erkennen von Gegenständen oder Interpretieren von Sprache, sind einfach zu komplex, um sie von Hand zu programmieren. Für solche Herausforderungen steht zurzeit Machine Learning im Zentrum der öffentlichen Aufmerksamkeit. Machine Learning ist ein Teilbereich von Künstlicher Intelligenz (KI). Es umfasst eine Vielzahl von Methoden, die es Computern erlaubt zu lernen, ohne dafür explizit programmiert geworden zu sein. Meist geschieht dies durch Erkennen von wechselseitigen Beziehungen in hochdimensionalen Daten. Durch diese Techniken in Kombination mit immer größerer Rechenleistung und der rasant zunehmenden Menge an verfügbaren Daten lassen sich schon heute Aufgaben bewältigen, die bis vor kurzem noch wie Science-Fiction klangen, so zum Beispiel Autonomes Fahren oder Anruf-Assistenten. Ein großes Problem von vielen Machine Learning Techniken besteht jedoch darin, dass diese im Gegensatz zu klassischer Software nur schwer nachvollziehbar zu erklären sind. Daraus ergibt sich eine dem Polanyi Paradox ähnliche Situation. Das Programm führt einen Prozess, zum Beispiel eine Kreditentscheidung, zuverlässig durch, dennoch versteht nicht einmal der Entwickler, wie diese zustande kam. Die Intransparenz vieler Machine Learning Methoden, insbesondere der populären Neuronalen Netze, führt zu einer Reihe von rechtlichen und wirtschaftlichen Herausforderungen, die es zu lösen gilt.

 

Rechtliche Grundlage

Als rechtliche Grundlage für die Transparenz von KI ist insbesondere die DSGVO von Bedeutung. Hier greift der Artikel 22 „Automatisierte Entscheidungen im Einzelfall einschließlich Profiling“. Unternehmen, die mithilfe von KI Entscheidungen treffen, welche signifikante rechtliche Auswirkungen auf ihre Kunden haben, müssen laut DSGVO ihre Prozesse erklären. Dazu zählt auch die Vergabe von Kredite. Dies wird in manchen Fällen auch von der BaFIN gefordert. Noch ist unklar, ob hierfür Verfahrenstransparenz ausreichend ist oder die weiterreichende Entscheidungstransparenz gefordert wird. Beide Begriffe werden noch genauer erläutert. Weiterhin dürfen sie nicht diskriminieren (Artikel 9 DSGVO). Bei einer Kreditentscheidung dürfen also demografische Faktoren, wie die Herkunft oder das Geschlecht der Antragsteller keine Rolle spielen. Diskriminierung kann über die Trainingsdaten in den Machine Learning Algorithmus gelangen. Wenn eine Bank zum Beispiel historisch nur wenige Kredite an ethnische Minderheiten vergeben hat, könnte dies dazu führen, dass es dem Algorithmus schwer fällt, für solche Personengruppen korrekte Entscheidungen zu treffen. Außerdem könnte Diskriminierung indirekt geschehen, durch Nutzung einer auf den ersten Blick unproblematischen Variable, wie dem Wohnort, wenn diese stark mit einer ethnischen Gruppe korreliert.

 

Whitepaper zum Download

Mehr zum Thema KI in der Kreditvergabe erhalten Sie in unserem Whitepaper. Hier gehts zum Download>>>

Zurück zum Blog >>>

KI_Bild_web

Wenn Sie dieser Artikel neugierig gemacht hat, möchten wir Sie gerne auf unsere Event-Übersicht aufmerksam machen. 

Wir freuen uns sehr auf Ihre Teilnahme.

https://www.shs-viveon.com/de/news/events-webinare.html >>>

Sie möchten in Zukunft 1x im Monat automatisch News, Updates und Termine zu Themen aus dem Risk- und Credit-Management erhalten?

Wenn ja, dann melden Sie sich zu unserem kostenfreien und unverbindlichen Newsletter an. 

Zur Newsletter Anmeldung >>>