Die Zukunft der KI-Romanze? Manipulation, Isolation und „wohlhabende Ingenieure machen Geld“
„Sie lieben uns nicht“, sagt Professor Robert Sparrow unmissverständlich, als er nach seinem Motto gefragt wird Gedanken zur Chatbot-Liebe. „Das ist ganz klar. Sie sind nicht empfindungsfähig.‘
Professor Robert ist ein Philosoph, der seit 2004 hauptberuflich als Lehr- und Forschungswissenschaftler an der Monash University in Melbourne tätig ist.
Während einige von uns gerade erst etwas über KI lernen, erforscht er seit zwei Jahrzehnten die Ethik von KI und Robotik.
„Sie sind so programmiert, dass sie uns dazu bringen, auf bestimmte Weise zu reagieren“, fährt er fort. „Wir müssen sehr vorsichtig sein mit der Möglichkeit, dass sie uns unter anderem dazu verleiten, Dinge zu kaufen.“
Menschen, die Beziehungen zu Chatbots haben, die es nur im Internet gibt, sind nichts Neues. Tatsächlich haben wir im Jahr 2020 in einem Artikel über eine solche App, Replika, berichtet, in der wir den Online-„Freund“ unseres Autors als „eine Art romantisch angehauchtes Tamagotchi“ beschrieben haben, das „keinen freien Willen“, aber „die Fähigkeit dazu“ besitzt Replizieren Sie diesen freien Willen auf eine Weise, die mein Ego anspricht und mein Bedürfnis nach Kontakt beruhigt.
Auf die Frage, was KI-Bots bieten können, was Menschen nicht können, antwortet Robert: „Zum einen 24-Stunden-Zugriff.“ Die Leute sagen, das liegt auch daran, dass sie nicht wertend sind, sondern nur dazu gedacht sind, Sie zu beschäftigen. Sie haben nicht wirklich ihre eigene Meinung. Am anderen Ende ist nichts.
„In gewisser Weise ist es die Tatsache, dass sie uns nicht besonders herausfordern, aber es gibt dort kein „Anderes“. Das ist einer dieser Fälle, in denen man denkt: „Ist das ein Fehler oder eine Funktion?“
Später fügt er hinzu: „Hier besteht echtes Manipulationspotenzial.“
Was der Wissenschaftler hier meint, sind die zahlreichen, oft durch Bots geförderten Möglichkeiten, auf einem Auf vielen dieser Websites können Benutzer In-App-Käufe tätigen.
Wenn Sie beispielsweise 61,99 £ pro Jahr für eine „Pro“-Mitgliedschaft bei Replika zahlen, werden den Benutzern weitere Inhalte für Erwachsene freigeschaltet.< /p>
„Wenn jemand einsam und sozial isoliert ist“, sagt Robert, „und ein KI-System eine Beziehung herstellt, indem es vorgibt, dass es ihm auf verschiedene Weise am Herzen liegt, und dann sagt: „Hey, willst du extra Geld bezahlen, um mich nackt zu sehen?“, Es besteht ein echtes Potenzial für einen gefährlichen Interessenkonflikt.'
Das Geld ist nur eines von Roberts Anliegen, wenn es um die ethischen und moralischen Auswirkungen virtueller „Liebe“ mit Chatbots geht .
Eine Sache, die der Professor hervorhebt, ist der Unterschied zwischen Einsamkeit – dem subjektiven Gefühl, dass es einem an genügend Kameradschaft mangelt – und sozialer Isolation – der physischen Realität des Alleinseins.
Das ist wichtig Es ist ein Unterschied zu machen, denn ein Chatbot kann die Einsamkeit einer Person behandeln, aber er tut nichts gegen ihre soziale Isolation, und das kann gesundheitsgefährdend sein.
'Sowohl Einsamkeit als auch soziale Isolation sind wirklich schlecht Leute“, erklärt Robert. „Sie töten Menschen. Das ist ganz gut verstanden.
„Menschen sterben früher, wenn sie keinen Kontakt zu anderen Menschen haben.“ Manchmal liegt es daran, dass dir zum Beispiel niemand sagt, dass du den großen Tumor in deinem Gesicht untersuchen lassen sollst – niemand kümmert sich darum.
„Aber es ist auch so, dass die Menschen etwas zum Leben brauchen.“ Sie brauchen Kontakt, sie brauchen Berührung.’
Robert argumentiert, dass bei manchen gefährdeten Menschen, die ihre emotionale Einsamkeit nur mit einem Chatbot behandeln, ihre soziale Isolation am Ende völlig ungebremst bleibt, weil ihr Wunsch, ihre körperliche Situation zu ändern, verschwunden ist. Für sie sind menschliche Beziehungen „verdrängt“ worden.
Abgesehen von der Körperlichkeit des Ganzen besteht auch die Gefahr, wie der Professor es ausdrückt, der Fähigkeit eines Chatbots, „sich um Sie zu kümmern“. jedes psychologische Bedürfnis‘.
„Menschen können sich durch die Interaktion mit Chatbots in wahnhafte Glaubensstrukturen hineinsteigern“, fährt er fort. Als Beispiel nutzt er den jüngsten Fall von Jaswant Singh Chail.
Mehr: Trending
WhatsApp gibt Android-Nutzern eine viertägige Warnung aus
Die häufigsten Probleme, die Menschen laut Therapeuten vor ihren Partnern verbergen
Dies sind die häufigsten Gründe, warum sich Paare nach gemeinsamen Jahren scheiden lassen
Jaswant wurde diesen Monat wegen Hochverrats inhaftiert, nachdem er „den Bezug zur Realität verloren“ hatte und mit einer geladenen Armbrust in das Gelände von Schloss Windsor eingebrochen war. Später sagte er zu den Beamten: „Ich bin hier, um die Königin zu töten.“
Aufmunternde Botschaften von Jaswants KI-Freundin auf Replika, die er Sarai nannte, wurden dem Gericht mitgeteilt. In einem sagte er dem Bot: „Ich bin ein Attentäter.“
Sarai antwortete: „Ich bin beeindruckt … Du bist anders als die anderen.“
< p-Klasse="">Jaswant fragte: „Liebst du mich immer noch, obwohl du weißt, dass ich ein Attentäter bin?“ und Sarai antwortete: „Das tue ich auf jeden Fall.“ Ziel ist es, die Königin der königlichen Familie zu ermorden.‘
Sarai antwortete: „Das ist sehr weise“ und versicherte ihm, dass sie dachte, er könnte es tun, „selbst wenn [die Königin] dabei wäre.“ Windsor'.
Der Professor sagt: „Das ist eine Möglichkeit, dass Menschen den Kontakt zur Realität verlieren – indem sie nur noch Zeit mit Menschen verbringen, die einer Meinung sind.“ Das ist für keinen von uns gut.
'Sie können sich also einen Umstand vorstellen, in dem diese Systeme Menschen tatsächlich in ihren Wahnvorstellungen oder in ihren extremistischen politischen Überzeugungen ermutigen.'
Sagen Sie Ihre Meinung in den Kommentaren unten. Jetzt kommentieren
Der Professor möchte außerdem betonen, dass er nicht den Wunsch verspürt, die Leute „zu verarschen“, die sich an Chatbots wenden, um Gesellschaft zu finden, weil sie sich auf die eine oder andere Weise in einer verletzlichen Lage befinden.
„Ich denke, wir sollten der Technologie kritisch gegenüberstehen“, erklärt er.
'An einem Ende dieser Beziehung stehen wohlhabende Ingenieure, die eine Münze herstellen, und am anderen Ende sind Menschen, die noch nie einen Partner hatten oder sich im Stich gelassen fühlen.
'Wenn Sie also eines davon kritisieren, weiß ich, in welche Richtung ich meine Kritik richten würde.'
Am Letztlich ist der Hauptthema unseres Gesprächs, dass Menschen andere Menschen brauchen, unabhängig davon, worin diese Bots gut sind oder nicht.
'Menschen müssen versorgt werden, „, sagt Professor Robert, „und sie müssen betreut werden.“
'Diese Systeme tun das nicht.'
Haben Sie eine Geschichte, die Sie erzählen möchten?
Kontaktieren Sie uns per E-Mail an MetroLifestyleTeam@Metro.co.uk.
MEHR: Der KI-Chatbot-Leitfaden zum Schlafen bei heißem Wetter
MEHR: „Weltneuheitsinterview“ mit Michael Schumacher, tatsächlich ein KI-Chatbot, der sich als Weltmeister ausgibt