Artificial Intelligence: Wie man die Manifestation von menschlichen Biases verhindert

Maschinelles Lernen kann dabei helfen, Urteile möglichst ohne Biases zu treffen. Sechs einfache Regeln für AI-Praktiker helfen dabei, dass sich menschliche Makel nicht von Anfang an im Algorithmus manifestieren.

Artificial Intelligence: Wie man die Manifestation von menschlichen Biases verhindert

Der Einsatz von Artificial Intelligence gehört für viele Unternehmen schon zum Alltag – mit positiven Effekten. Personalentscheidungen, die mit Hilfe von AI getroffen werden, können zum Beispiel weniger fehlerbehaftet sein, Gerichtsurteile ebenfalls. Wichtig dabei ist allerdings, dass ein lernender Algorithmus sich auf Entscheidungen und Informationen begründet, die von Menschen stammen. Und da diese nun einmal vor diversen Biases nicht gefeit sind, sollte aufgepasst werden, dass die selbst lernenden Maschinen nicht automatisch die menschlichen Biases einprogrammieren und damit womöglich noch verstärken.

Das 6-Punkte-Programm für bessere Entscheidungen mit AI

McKinsey listet sechs Schritte, um diese potenziellen Problemfelder vorab zu verhindern:

  1. Ganz allgemein müssen Kenntnisse vorhanden sein, auf welche Art und Weise AI Verzerrungen korrigieren kann beziehungsweise, dass die Gefahr einer Potenzierung von Biases droht.
  2. Prozesse und Praktiken zum Testen und Reduzieren von Verzerrungen in AI-Systemen gehören eingeführt.
  3. Diskussionen über mögliche Vorurteile bei menschlichen Entscheidungen sind wichtig. Führungskräfte sollten überlegen, wie die künstliche Intelligenz dabei helfen kann, langjährige, bisher möglicherweise unbemerkte Vorurteile aufzudecken.
  4. Wie können Menschen und Maschinen am besten zusammenarbeiten? Einige vielversprechende Systeme verwenden eine Kombination aus Maschinen und Menschen, um den Bias zu verringern. Zu diesen Techniken gehört die Entscheidungsfindung „human-in-the-loop“, bei der Algorithmen Optionen bereitstellen, die der Anwender überprüfen oder unter denen er wählen kann
  5. Für die Bias-Forschung sollte noch mehr Geld in die Hand genommen und mehr Datenmaterial herangezogen werden. Dabei müssen natürlich datenschutzrechtliche Regelungen beachtet werden. Ausserdem hilft eine interdisziplinäre Herangehensweise, indem etwa Ethik-Experten, Social Scientist und weitere Spezialisten abseits der IT-Liga zu Rate gezogen werden.
  6. Es gehört mehr in die Diversifizierung von Artificial Intelligence investiert:

Many have pointed to the fact that the AI field itself does not encompass society’s diversity, including on gender, race, geography, class, and physical disabilities. A more diverse AI community will be better equipped to anticipate, spot, and review issues of unfair bias and better able to engage communities likely affected by bias. This will require investments on multiple fronts, but especially in AI education and access to tools and opportunities.

Quelle: Jake Silberg and James Manyika, Tackling bias in artificial intelligence (and in humans), mckinsey.com, June 2019