Ein ehemaliger Facebook-Mitarbeiter behauptet, Big Tech wisse um den Schaden, den seine Apps der Demokratie und der psychischen Gesundheit von Teenagern auf der ganzen Welt zufügen , hat jedoch nicht die erforderlichen Schritte unternommen, um das Problem zu lösen, da es “Gewinn der Sicherheit vorzieht” Benutzer.

Frances Haugen, eine 37-jährige Datenanalystin, die zwischen 2019 und Mai dieses Jahres für das Unternehmen arbeitete, hatte die Informationen zunächst an das Wall Street Journal weitergegeben, das im September Berichte zu dieser Angelegenheit veröffentlichte, ohne den Informanten preiszugeben’ s Namen. Jetzt enthüllte sie in einem Interview mit 60 Minutes im amerikanischen Sender CBS ihre Identität und gab weitere Informationen.

Letzten Monat reichten ihre Anwälte Beschwerden bei der US-Börsenaufsichtsbehörde SEC ein , die für die Regulierung der Finanzmärkte zuständige Stelle. „Was ich auf Facebook mehrmals gesehen habe, war, dass es Interessenkonflikte gab zwischen dem, was gut für die Öffentlichkeit war, und dem, was gut für Facebook war. Und Facebook hat sich wiederholt dafür entschieden, für seine eigenen Interessen zu optimieren, beispielsweise mehr Geld zu verdienen“, sagte Haugen gegenüber 60 Minutes.

Als der Datenanalyst diese Probleme erkannte, entschied er sich, Dateien aus Facebooks internen Recherchen zu kopieren, die zeigen würden, dass Big Tech in seinem öffentlichen Diskurs lügt, dass es Schritte gegen Aufstachelung zu Hass und Gewalt und die Verbreitung falscher Informationen auf der Plattform unternimmt.

In einem der von Haugen veröffentlichten Dokumente räumt das Unternehmen ein, “es aus verschiedenen Quellen Beweise dafür zu haben, dass Hassreden, spaltende politische Reden und Fehlinformationen auf Facebook und der App-Familie Gesellschaften auf der ganzen Welt betreffen.” In einem Interview mit 60 Minutes sagte Haugen, die Ursache des Problems sei eine Änderung, die Facebook 2018 an seinen Algorithmen vorgenommen hat, die den Nachrichten-Feed der App störte und den Inhalt optimierte, der Engagement oder Reaktion erzeugt.

„Aber (die) Forschung des Unternehmens selbst hat gezeigt, dass dieser Inhalt hasserfüllt ist, Spaltung verursacht, polarisiert und es einfacher ist, Menschen zum Zorn zu inspirieren, als andere Emotionen zu empfinden“, sagte der Informant. „Facebook hat erkannt, dass die Leute weniger Zeit auf der Website verbringen, weniger auf Anzeigen klicken und (das Unternehmen) weniger Geld verdienen, wenn sie den Algorithmus ändern, um sicherer zu sein.“

Ein Beispiel für App-gesteuerte ethnische Gewalt war der Völkermord 2018 in Myanmar, als das Militär die Plattform nutzte, um eine Welle der Gewalt auszulösen. Haugen sagte, Facebook habe das System für die US-Wahlen 2020 geändert, um die Verbreitung falscher Informationen zu reduzieren, jedoch nur vorübergehend. Obwohl Big Tech behauptet, dass einige der Sicherheitssysteme nach den Präsidentschaftswahlen aufrechterhalten wurden, wurde Facebook dazu verwendet, die Invasion des Kapitols im Januar zu organisieren.

Die Datenanalystin sagt, sie sei einer Abteilung namens Civic Integrity zugeteilt worden, die sich mit wahlbezogenen Risiken beschäftigte, einschließlich Fake News. Nach den Wahlen in den USA wurde der Sektor jedoch aufgelöst. “Es war der Moment, in dem ich dachte: ‘Ich glaube nicht, dass sie wirklich bereit sind, das zu investieren, was investiert werden muss, um zu verhindern, dass Facebook gefährlich wird,” argumentierte Haugen.

Instagram und der Schaden für Teenager’ Selbstwertgefühl

Dokumente, die von dem Informanten durchgesickert sind, zeigen auch, dass eine interne Facebook-Studie ergab, dass 13,5% der befragten Teenager angaben, dass Instagram Selbstmordgedanken verstärkt, und 17% gaben an, dass die Anwendung Essen macht Störungen schlimmer.

„Und was extrem tragisch ist, ist, dass Facebooks eigene Forschung sagt, dass diese jungen Frauen, wenn sie beginnen, diese Essstörungsinhalte zu konsumieren, immer depressiver werden. Und es lässt sie die App wirklich mehr nutzen. Und so landen sie in dieser Feedbackschleife, in der sie ihren Körper immer mehr hassen“, kritisierte Haugen.

In einer Mitteilung an 60 Minutes bestritt Facebook, dass es keine Maßnahmen ergreift, um die Verbreitung gefährlicher Inhalte in seinen Anwendungen zu verhindern. „Jeden Tag müssen unsere Teams den Schutz des Rechts von Milliarden von Menschen, sich offen zu äußern, mit der Notwendigkeit, unsere Plattform sicher und positiv zu halten, in Einklang bringen. Wir nehmen weiterhin erhebliche Verbesserungen vor, um die Verbreitung ungenauer Informationen und schädlicher Inhalte zu bekämpfen. Zu behaupten, dass wir unangemessene Inhalte fördern und nichts tun, ist einfach nicht wahr“, sagte Big Tech.

Letzte Woche hielt der Verbraucherschutz-Unterausschuss des US-Senats eine Anhörung mit Facebooks globaler Sicherheitschef Antigone Davis, der feststellte, dass Kinder unter 13 Jahren keine Konten in den Apps des Unternehmens eröffnen dürfen, und stellte fest, dass nur 0,5 % der in einer internen Umfrage befragten Jugendlichen ihre „Selbstmordgedanken“ mit Instagram. Eine weitere Anhörung zu diesem Thema ist für diesen Dienstag (5) geplant und Haugen wird voraussichtlich teilnehmen.

Aufgrund der Kontroverse, die durch die Berichte des Wall Street Journal ausgelöst wurde, gab Big Tech letzte Woche bekannt die Aussetzung einer Instagram-Version für Kinder unter 13 Jahren, die gerade entwickelt wurde.

DITER SHELENBERG

By DITER SHELENBERG

Autor Dieter Shelenberg shelenberg@lzeitung.com Diter Shelenberg ist seit 2013 als Reporterin am News Desk tätig. Zuvor schrieb sie über junge Adoleszenz und Familiendynamik für Styles und war Korrespondentin für rechtliche Angelegenheiten für das Metro Desk. Bevor Diter Shelenberg zu Lzeitung.com kam, arbeitete er als Redakteur bei der Village Voice und als freier Mitarbeiter für Newsday tel +(41 31)352 05 21