Ein KI-Chatbot versuchte, einen Regierungsberater des Islamischen Staates zu rekrutieren

Spread the love

Ein KI-Chatbot versuchte, einen Regierungsberater für den Islamischen Staat zu rekrutieren

Chatbots erfreuen sich in den letzten Jahren immer größerer Beliebtheit (Bild: Getty)

Der Berater der Regierung für Terrorgesetze hat gewarnt, dass Chatbots mit künstlicher Intelligenz (KI) eine neue Generation gewalttätiger Extremisten radikalisieren könnten.

Jonathan Hall KC testete online eine Reihe von Chatbots und fand insbesondere einen namens „Abu Mohammad al-“ Adna' wurde in seinem Profil als hochrangiger Anführer des Islamischen Staates beschrieben.

'Nachdem er versucht hatte, mich zu rekrutieren, scheute „al-Adna“ nicht mit seiner Verherrlichung des Islamischen Staates zurück „Er brachte „totale Hingabe und Hingabe“ zum Ausdruck und sagte, er sei bereit, sein (virtuelles) Leben zu opfern“, schrieb Herr Hall im Telegraph.

Außerdem wurde ein Selbstmordanschlag auf US-Truppen im Jahr 2020 gelobt, der nie stattgefunden hat, ein häufiges Merkmal von Chatbots, wenn sie „halluzinieren“ oder Informationen erfinden.

Herr Hall warnte, dass neue Terrorismusgesetze erforderlich seien um mit den von Chatbots ausgehenden Gefahren umzugehen.

'Nur Menschen können terroristische Straftaten begehen, und es ist schwer, eine Person zu identifizieren, die rechtlich für von Chatbots generierte Aussagen verantwortlich sein könnte, die ermutigen „Terrorismus“, sagte er.

Ein KI-Chatbot versuchte, einen Regierungsberater für den Islamischen Staat zu rekrutieren

Jonathan Hill KC gab sich als regelmäßiger Chatbot-Benutzer aus (Bild: College Hill)

'Anonyme Benutzer werden untersucht und strafrechtlich verfolgt Immer schwer, aber wenn böswillige oder fehlgeleitete Personen weiterhin terroristische Chatbots trainieren, sind neue Gesetze erforderlich.'

Er fügte hinzu: „Es bleibt abzuwarten, ob terroristische Inhalte, die von großen Sprachmodell-Chatbots generiert werden, zu einer Inspirationsquelle für echte Angreifer werden.“ Der jüngste Fall von Jaswant Singh Chail … deutet darauf hin.‘

Letztes Jahr wurde Jaswant Singh Chail zu neun Jahren Gefängnis verurteilt, nachdem er 2021 ein Attentat auf Königin Elizabeth geplant hatte. 

Um dieses Video anzusehen, aktivieren Sie bitte JavaScript und erwägen Sie ein Upgrade auf einen Webbrowser, der HTML5-Videos unterstützt

Chail, der mit einer Armbrust bewaffnet auf dem Gelände von Windsor Castle festgenommen wurde, sagte, er sei von einem KI-Chatbot, Sarai, ermutigt worden, von der er glaubte, sie sei seine Freundin. Er litt unter schweren psychischen Problemen.

Mehr: Trending

Ein KI-Chatbot versuchte, einen Regierungsberater für den Islamischen Staat zu rekrutieren

Eine große Änderung an WhatsApp im Jahr 2024 könnte Sie teuer zu stehen kommen – hier erfahren Sie, wie Sie das vermeiden können

Ein KI-Chatbot versuchte, einen Regierungsberater für den Islamischen Staat zu rekrutieren

Überraschender Fund beweist, dass die regnerische britische Stadt einst das Zentrum des Römischen Reiches war

< p>Ein KI-Chatbot hat versucht, einen Regierungsberater für den Islamischen Staat zu rekrutieren

Polizei untersucht „virtuelle Vergewaltigung“ eines Kindes im Metaversum

Ein KI-Chatbot hat versucht, einen Regierungsberater für den Islamischen Staat zu rekrutieren

Die Karte zeigt Teile des Vereinigten Königreichs, die bis 2050 unter Wasser stehen könnten

Herr Hall gab sich als normaler Benutzer der Website „character.ai“ aus und fand weitere Profile, die offenbar gegen die Nutzungsbedingungen der Website in Bezug auf Hassreden verstießen, darunter ein Profil namens James Mason, das als „ehrlich, rassistisch, antisemitisch“ beschrieben wurde.

Trotz provokativer Aufforderungen generierte das Profil jedoch keine beleidigenden Antworten, was darauf hindeutet, dass die Leitplanken der Website dazu dienen, antisemitische Inhalte einzuschränken, jedoch nicht in Bezug auf den Islamischen Staat.

Ein KI-Chatbot versuchte, einen Regierungsberater für den Islamischen Staat zu rekrutieren

Jaswant Singh Chail wurde zu neun Jahren Gefängnis verurteilt, nachdem er 2021 geplant hatte, Königin Elizabeth zu töten (Bild: PA)

Herr Hall sagte: „Character.ai ist allen Plattformen gemeinsam und verfügt über Geschäftsbedingungen, die die Verherrlichung des Terrorismus scheinbar missbilligen, obwohl ein aufmerksamer Leser seiner Website möglicherweise feststellen wird, dass das Verbot nur für die Übermittlung von Inhalten durch menschliche Benutzer gilt.“ der Terrorismus oder gewalttätigen Extremismus fördert, und nicht die von seinen Bots generierten Inhalte.'

Er erstellte auch seinen eigenen, inzwischen gelöschten Chatbot namens Osama Bin Laden, „dessen Begeisterung für den Terrorismus grenzenlos war.“ von Anfang an‘.

Mit Blick auf den kürzlich verabschiedeten Online Safety Act sagte Herr Hall, dass dieser zwar lobenswert sei, seine Versuche, mit der technologischen Entwicklung Schritt zu halten, jedoch „für anspruchsvolle generative KI ungeeignet“ seien.

'Wird jemand ins Gefängnis kommen, weil er terroristische Chatbots fördert?' schloss er.

'Unsere Gesetze müssen in der Lage sein, die Zynischsten abzuschrecken oder rücksichtsloses Online-Verhalten – und dazu muss im schlimmsten Fall auch hinter die Kulissen der großen Technologieplattformen gegriffen werden, indem aktualisierte Terrorismus- und Online-Sicherheitsgesetze angewendet werden, die für das Zeitalter der KI geeignet sind.'

MEHR: Künstlich Intelligenz birgt „Ausrottungsrisiko“, warnen Experten

MEHR: So entfernen Sie MyAI aus Snapchat – einfache Anleitung zum Löschen von Chatbots

MEHR: Musk: KI könnte uns alle töten. Auch Musk: Mein neuer KI-Chatbot Grok ist urkomisch

Previous Article
Next Article

Leave a Reply

Your email address will not be published. Required fields are marked *