So funktioniert die Beziehung von Mensch und Maschine

An der Universität Zürich erforscht Alexander Wagner mit seinem Team, ob Menschen Beziehungen zu Robotern aufbauen können und ob sie bereit sind, sie für Geld zu eliminieren. Seine Erkenntnisse schildert er im Gespräch mit Alexis Johann, Managing Partner von FehrAdvice.

So funktioniert die Beziehung von Mensch und Maschine

Wie nehmen Menschen Roboter und damit künstliche, selbstlernende Intelligenz wahr, wenn sie mit ihr interagieren? Lehnen sie Algorithmen grundsätzlich ab, oder stehen sie ihnen positiv gegenüber? Eine wesentliche Frage, wenn es in etlichen Branchen darum geht, zu testen, ob Menschen Vertrauen zB. zu künstlichen Verkäufern und Beratern aufbauen können und wollen. Geforscht wurde hierzu bisher verhältnismässig wenig – sowohl in der Informatik als auch in der Ökonomie gibt es wenig Evidenz dazu.

„Für ein Unternehmen in der Finanzindustrie, das sich überlegt Robo-Advisory anzubieten, kann es entscheidend sein zu wissen, ob die Kunden gerne mit Algorithmen interagieren oder nicht“, nennt Alexander F. Wagner, vom Department of Banking and Finance der Universität Zürich, nur ein Beispiel dafür, wie relevant Erkenntnisse über die menschliche Wahrnehmung von selbstlernenden Maschinen heute in der Praxis sein können.

Mittels eines Experiments wurde gemessen, wie hoch die Bereitschaft der Experimentteilnehmer ist, einen Algorithmus am Ende zu „eliminieren“,  wenn ihnen dafür Geld geboten wird. Dafür wurden zwei Gruppen gebildet – eine, die mit einem ML-Algorithmus und eine andere, die mit einem nichtlernenden Algorithmus interagiert hat.

Algorithmus prognostiziert Unternehmensgewinne

Die ML-Gruppe hat mit einem sogenannten „Naive Bayes Classifier“ gearbeitet. Der Algorithmus ist darauf programmiert, auf Basis der Protokolle von Earnings Conference Calls von US-Unternehmen deren künftige Gewinnentwicklung zu prognostizieren. „Vereinfacht ausgedrückt analysiert der Algorithmus die Aussagen des Managements und leitet daraus ab, ob dies üblicherweise gute oder schlechte Zahlen zur Folge hat“, erklärt Wagner im Gespräch mit Alexis Johann, Managing Partner bei FehrAdvice & Partners.

Gleichzeitig wurde die ML-Gruppe dazu aufgefordert, mit dem Algorithmus zu interagieren, ihn quasi zu „trainieren“ – die Teilnehmer dieser Gruppe haben ihn mit neuen Daten bzw. Earnings-Conference-Call-Protokollen und den darauf folgenden Gewinnen gefüttert und dadurch eine Art Beziehung aufgebaut. „Die Experimentteilnehmer konnten sehen, ob sich die Prognosefähigkeit des Programms durch die Eingabe weiterer Daten verbessert oder nicht“, so Wagner.

Stark vereinfacht ausgedrückt kann man sagen, dass die Teilnehmer dieser Gruppe den Algorithmus wie ein Baby „aufgezogen“ und Fortschritte gesehen haben, wohingegen die zweite Gruppe mit einem nichtlernenden Algorithmus zu tun hatte und so diese Bindung nicht entstanden ist.

In einem weiteren Schritt mussten die Experimentteilnehmer entscheiden, ob sie den Algorithmus „abdrehen“ und damit killen möchten oder nicht. Und das wurde sogar noch mit Geld verstärkt. Wer ihn etwa „leben lassen“ wollte, bekam dafür 11 SFR. Wer sich dagegen entschied, bekam 15 SFR.

„Die Experimentteilnehmer, insbesondere jüngere Menschen, die mit einem selbstlernenden Algorithmus interagiert bzw. diesen trainiert haben, waren bereit, auf mehr Geld zu verzichten, um ihn am Leben zu lassen – anders als die Mitglieder der zweiten Gruppe“, so Wagner.

Womit die Eingangsfrage mit einem klaren „es kommt darauf an“ zu beantworten ist: gelingt es Menschen, zu Robotern Beziehungen aufzubauen, lassen sie sie in der Regel weniger leicht „sterben“.

 

FehrAdvice & Partners – der Podcast

Hören Sie hier unseren Managing Partner Alexis Johann im Gespräch mit Alexander Wagner zum Thema „Wie nehmen Menschen selbstlernende Algorithmen wahr?“

Spotify
Soundcloud
iTunes

FehrAdvice Digital Hub

Möchten Sie mehr zum Thema Verhaltensökonomie erfahren und Ihr Wissen testen? Besuchen Sie unseren Digital Hub – Einfach kostenlos anmelden und losstarten!

Jetzt anmelden