Es gibt viele Kritikpunkte an den sozialen Medien. Und die Unternehmen versuchen idealerweise, mit unterschiedlichem Erfolg, alle vernünftigen Erwartungen zu erfüllen. Es gibt einige Themen, die eine ernsthafte Herausforderung für die Unternehmen darstellen, und eines dieser Themen, Selbstmord und Selbstverletzung, hat nun eine Branchenkoalition ins Leben gerufen.
Für Technologieunternehmen ist es sehr schwierig, die Inhalte zu regulieren, die sie auf ihre Plattformen stellen, aber es gibt einige Dinge, gegen die sie sich erfolgreich wehren können. Nacktheit beispielsweise wird von den meisten Diensten inzwischen sehr gut verwaltet, aber selbstverletzende Videos sind ein anderes Genre und viel schwieriger zu erkennen und zu verwalten.
Meta, TikTok und Snap starten jetzt ein gemeinsames Programm, um Inhalte mit Bezug zu Selbstmord und Selbstverletzung effektiver herauszufiltern.
Die Initiative heißt Thrive, und Meta hofft, dass sich mit der Zeit auch andere Unternehmen anschließen werden. Es handelt sich um ein jahrzehntealtes Problem, das von anderen sozialen Plattformen schon viel früher hätte gelöst werden müssen. Für Menschen mit psychischen Erkrankungen können die sozialen Medien auch sehr ernsthaften Schaden anrichten, und das ist jetzt eine Tatsache. Da der Weg zu Selbstmord und körperlicher Gewalt gegen sich selbst in der Regel über sehr ernste psychische Probleme führt, kann man argumentieren, dass diese Tendenzen durch Facebook, TikTok und Konsorten noch verstärkt werden können.
In seiner jüngsten Ankündigung erklärte Meta, dass es seit einiger Zeit daran arbeitet, Inhalte im Zusammenhang mit Selbstmord und Selbstverletzung zu identifizieren und zu versuchen, diese Vorfälle anzugehen. So hat das Unternehmen bereits ein Team innerhalb seines eigenen Sicherheitsteams eingerichtet, das sich um solche psychisch Kranken kümmert, wenn es die Anzeichen erkennt. Es muss jedoch eingeräumt werden, dass es in diesem Bereich noch viel zu tun gibt. Deshalb arbeitet das Thrive-Programm bereits partnerschaftlich daran, den Cyberspace zu einem sichereren Ort zu machen.
"Wie viele andere Arten potenziell problematischer Inhalte sind auch Selbstmord- und Selbstverletzungsinhalte nicht auf eine einzige Plattform beschränkt. Um wirklich effektiv auf solches Material zu reagieren, müssen die Technologieunternehmen zusammenarbeiten. - betonte das Unternehmen.
Der Start des neuen Programms wurde von der Mental Health Coalition unterstützt, die teilweise der Weltgesundheitsorganisation untersteht und in Ungarn bereits aktiv ist. Im Rahmen von Thrive werden die Unternehmen in der Lage sein, Signale untereinander auszutauschen, so dass, wenn sie bei einem Nutzer auf Facebook Anzeichen für mögliche Selbstmordtendenzen erkennen, auch Snap dessen Aktivitäten besondere Aufmerksamkeit schenken wird. So können sie Menschen mit psychischen Problemen schneller und wirksamer helfen. Außerdem können sie die Verbreitung schädlicher Inhalte schneller stoppen.
Meta sagte, dass die Technologie, die hinter Thrive steht, maximale Sicherheit für alle Beteiligten bieten wird. Es handelt sich um eine Lösung, die bereits seit einiger Zeit in Betrieb ist und den Schutz personenbezogener Daten gewährleistet. Auch das Programm "Laterne" zur Meldung von Kindesmissbrauch basiert auf dieser Technologie.
Schließlich teilte Meta in seiner jüngsten Ankündigung mit, dass allein zwischen April und Juni mehr als 12 Millionen Fälle von selbstverletzendem oder selbstmordbezogenem Inhalt auf Facebook und Instagram gemeldet wurden.