Künstliche Intelligenz: Warum auch Maschinen Fairness lernen müssen

Bevor AI endgültig zur Grundlage aller Lebensbereiche wird, müssen die Algorithmen auch Fairness lernen. Sonst droht die automatische und systematische Benachteiligung vieler Menschen.

Künstliche Intelligenz: Warum auch Maschinen Fairness lernen müssen

Künstliche Intelligenz ist bereits jetzt nicht mehr aus unserem Alltag wegzudenken: Die Produktvorschläge auf Amazon oder maßgeschneiderte Online-Jobangebote sind Ergebnisse von Algorithmen, die mit der Zeit dazulernen und sich so immer besser auf die jeweilige Person abstimmen. In naher Zukunft noch viel mehr Handlungen des täglichen Lebens auf AI basieren, und das wirft einige Fragen auf. Unter anderem, ob die errechneten Ergebnisse wirklich ideal sind – und ob immer die fairste Variante gewählt wird.

Das wirft viele Probleme auf: Meistens sind die Daten, mit denen Algorithmen gefüttert werden, bereits alt, rückwärtsgewandt – und damit tendenziell ungerecht, wie Mike Loukides in einem Artikel schreibt:

Real estate data reflects the effects of racial discrimination in housing, which is still taking place, many years after it became illegal. Employment data reflects assumptions about what men and women are expected to do (and have historically done): women get jobs as nurses, men get jobs as engineers.

Aufgrund der mittlerweile immensen Datenmengen ist es nicht mehr möglich, dass Maschinen von Menschen auf faire Handlungen kontrolliert werden. Es braucht maschinelles Learning, um maschinelles Learning zu prüfen. Doch derartige Lösungen gibt es noch nicht, auch nicht im Forschungsstadium.

Fairness ist menschlich

Dabei darf nicht vergessen werden, dass es sich bei Fairness um ein menschliches Verhalten handelt. Digitale Tools können diesbezüglich nicht die ganzheitliche Aufsicht übernehmen, aber durchaus assistieren und bei Entscheidungen helfen:

That means designing and building “fairness dashboards” that let humans see how their systems are behaving at a glance; we may want tools to generate alarms (or at least defer actions) when they see something suspicious.

Bisher sollte durch Maschinelles Lernen vor allem wirtschaftliche Ergebnisse optimiert werden. Damit das nicht auf Kosten zahlreicher Menschen passiert, müssen die Systeme so angelegt werden, dass fair gearbeitet wird, und das ständig.

Quelle: Mike Loukides, Machine learning tools for fairness, at scale, oreilly.com, January 17, 2018