KI? Nein Danke!
06.06.2019
Foto: © Sikov - stock.adobe.com
Angst vor KI
Im Prinzip ist der Mensch schon heute ein Sklave der von ihm selbst geschaffenen Technik: Ein mehrere Stunden dauernder Stromausfall beispielsweise lässt unser Leben völlig zum Erliegen kommen. Dass der Mensch tatsächlich zum Sklaven der Technik, genauer gesagt von Robotern, werden könnte, befürchten 27 % der Umfrageteilnehmer. Bis Roboter wirklich die Herrschaft über die Menschheit übernehmen, müssen noch sehr viele technische Innovationen getätigt werden. Deutlich realer ist hingegen, dass immer mehr Arbeitsplätze von Maschinen übernommen werden können. Diese Angst hat jeder dritte Umfrageteilnehmer.
Eine wesentliche Angst, die die Menschen gegenüber KI haben, ist die, dass diese nicht in der Lage sein, richtige Entscheidungen zu treffen. So meinen 53 % der Befragten, dass KI möglicherweise die Entscheidungsfindung verzerre. Ebenso viele glauben sogar, dass KI Entscheidungen immer auf Grundlage der Vorurteile der Person treffe, die ihr die erste Anweisung gegeben hat. Nach Ansicht der Befragten spiele dabei keine Rolle, wie viel Zeit vergangen sei.
KI wird kein moralisches Verhalten zugetraut
Wir treffen unsere Entscheidungen nicht unbedingt nur aus rationaler, sondern auch als emotionaler und moralischer Motivation. Beispielsweise wäre es rationaler Produkte zu kaufen, die in der Dritten Welt in Kinderarbeit entstanden sind – unser moralisches Gewissen verbietet uns aber den Kauf solcher Produkte, obwohl sie deutlich billiger wären. KI ist nach Meinung der Umfrageteilnehmer zu solchen Urteilen aber nicht fähig. So stimmte nur jeder achte Befragte der Aussage zu, dass KI die Fähigkeit haben, zwischen Gut und Böse zu unterscheiden. Dass sich das in Zukunft ändern könnte, glauben die Wenigsten: 56 % der Umfrageteilnehmer sind der Meinung, dass es nicht möglich sei, Maschinen zu entwickeln, die sich moralisch verhalten. Eine weitere sehr menschliche Eigenschaft ist Empathie. Dass KI diese besitzt, glaubt eine Minderheit: 12 % der Befragten sagten aus, dass mit einer Maschine interagiert hätten, von der sie glauben, dass sie Empathie gezeigt hätte.
Pegasystems rät Unternehmen, alle zur Verfügung stehenden Werkzeuge zu nutzen, um mehr Empathie in der Interaktion zu zeigen, und somit das Vertrauen und die Zufriedenheit ihrer Kunden zu steigern. Bislang ist Empathie kein allgemeines Unternehmensmerkmal, wenn es darum geht, die Rentabilität zu maximieren. So müssten Unternehmen, die ihre Kundenbindung verbessern wollen, darüber nachdenken, wie sie KI-basierte Erkenntnise mit ethischen Überlegungen verbinden.
Menschen bevorzugt
Wenn es um Kundenservice geht, sprechen 70 % der Befragten lieber mit einem Menschen als einem KI-System oder eine Chatbot. Durchaus erstaunlich: Obwohl einem KI-System die Fähigkeit zur Empathie und damit in gewisser Weise auch die Emotionalität abgesprochen wird, und man eigentlich meinen müsste, dass es leichter wäre, der KI auch eine unangenehme Wahrheit zu sagen, gaben 69 % der Befragten an, eher einem Menschen die Wahrheit sagen zu können als einem KI-System. Wenn es um die Frage um Leben und Tod geht, vertrauen 86 % der Befragten eher einem Menschen als einem KI-System – was aber auch bedeutet, dass jeder Sechste einer Technik die existenziellste Frage überhaupt anvertrauen würde.
"Unsere Studie hat ergeben, dass nur 25 % der Verbraucher einem KI-System vertrauen würden, das über einen Bankkredit entscheidet, den sie haben wollen", kommentiert Dr. Rob Walker, Vice President, Decisioning and Analytics bei Pega, die Studienergebnisse. "Die Verbraucher bevorzugen es, mit einem Menschen zu sprechen, weil sie ihm stärker vertrauen und glauben, seine Entscheidung beeinflussen zu können. Wir brauchen KI-Systeme, die fähig sind, Unternehmen bei ethischen Entscheidungen zu unterstützen. Bei der Vergabe eines Bankkredits heißt das: Es ist nicht nur wichtig, alle regulatorischen Prozesse genau zu befolgen. Das Bankinstitut muss sich auch die Frage stellen, ob es ethisch richtig ist, ein Darlehen an einen bestimmten Menschen zu vergeben." (ahu)