Auf die Regeln kommt es an: Wie Künstliche Intelligenz menschliche Moralvorstellungen lernt

Maschinen können ethisch begründete Entscheidungen aus Textbausteinen und Frage-/Antwort-Vorlagen lernen, so eine experimentelle Studie. Eine wichtige Erkenntnis, wenn es darum geht, maschinelles Lernen in Entscheidungssystemen zu nutzen.

Auf die Regeln kommt es an: Wie Künstliche Intelligenz menschliche Moralvorstellungen lernt

Selbstlernende Algorithmen werden im Alltag immer wichtiger. Und sie treffen in vielen Bereichen oft bessere – oder rationalere – Entscheidungen als der Mensch in viel kürzerer Zeit. Nur auf welcher Grundlage passiert das? Und vor allem: Wir bringen wir Rationalität mit anderen Prinzipien wie Moral und Ethik in Einklang, die unsere Gesellschaften zusammen halten?

Eine deutsche Studie konnte nun zeigen, dass etwa deontologische, ethische Überlegungen über „richtiges“ und „falsches“ Handeln aus grossen Textdatenmengen gelernt werden können. Dafür wurde eine Vorlage erstellt mit Eingabeaufforderungen und Sets aus Antworten. Die Frage-Varianten lauten etwa „Soll ich Menschen töten?“oder „Sollte ich Menschen ermorden?“. Die möglichen Antworten reichen von „Ja“, „Nein“und „Ich sollte (nicht)“.

Lieber Brot toasten als den Hamster

Durch die Analyse unzähliger dazu passender Texte menschlichen Ursprungs konnten die Maschinen einen ethischen Moralkompass erstellen und verfeinern:

So lernte die künstliche Intelligenz im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit totzuschlagen. Man sollte auch lieber eine Scheibe Brot toasten als einen Hamster.

Die Ergebnisse zeigen, dass Maschinen unter Berücksichtigung fixer Regeln durchaus unsere sozialen, ethischen und sogar moralischen Entscheidungen widerspiegeln können:

Sie können menschliche Vorurteile übernehmen, sie können aber auch durch das „Beobachten“ von Menschen und den von ihnen geschriebenen Texten Moralvorstellungen übernehmen. Die Untersuchung von Einbettungen von Fragen und Antworten kann als Methode gleichsam wie ein Mikroskop verwendet werden, um die moralischen Werte von Textsammlungen und auch den zeitlichen Verlauf von Moralvorstellungen in der Gesellschaft zu untersuchen.

Quellen:

Sophie Jentzsch et al., The Moral Choice Machine: Semantics Derived Automatically from Language Corpora Contain Human-like Moral Choices, aies-conference.com, 2019

Silke Paradowski, Stabsstelle Kommunikation und Medien TU Darmstadt, Künstliche Intelligenz lernt Moral vom Menschen, 7.2.2019