Große Technologieunternehmen versuchen, die KI an möglichst vielen Fronten zu nutzen. Unter den Big-Tech-Unternehmen ist Meta in dieser Hinsicht führend, aber es sieht so aus, als ob es gut daran täte, bei der Einführung neuer KI-Tools vorsichtiger zu sein, da diese das Potenzial haben, ernsthafte Probleme zu verursachen.
Wie The Information berichtete, hatten Meta-Mitarbeiter vor einigen Tagen fast zwei Stunden lang unbefugten Zugang zu Unternehmens- und Nutzerdaten.
Nach den vorliegenden Informationen hat ein von Meta für den internen Gebrauch entwickelter KI-Agent - der mit OpenClaw vergleichbar ist - falsche technische Ratschläge gegeben und seine Antwort veröffentlicht. Ein Mitarbeiter modifizierte daraufhin das System, indem er die Anweisungen umsetzte, um unbefugten Zugriff auf Unternehmens- und Benutzerdaten zu ermöglichen.
The Verge setzte sich mit Meta in Verbindung, das bestätigte, dass der Vorfall tatsächlich stattgefunden hat und dass es sich nicht um eine unbegründete Behauptung handelt. Die Sprecherin des Unternehmens, Tracy Clayton, betonte jedoch in einer offiziellen Stellungnahme, dass "kein unsachgemäßer Umgang mit Nutzerdaten stattgefunden hat".
Laut Clayton ist der interne KI-Agent für Meta "ähnlich aufgebaut wie OpenClaw, arbeitet aber in einer internen Entwicklungsumgebung". Er dient im Wesentlichen dazu, technische Fragen von anderen Mitarbeitern im geschlossenen Forum des Unternehmens zu analysieren. Der Agent sollte nach der Genehmigung eine private Antwort geben, hat aber stattdessen seine Antwort ohne Überprüfung veröffentlicht.
Einer der Mitarbeiter führte daraufhin die Anweisungen aus, die ungenau waren und schließlich zu einem Sicherheitsvorfall der Stufe SEV1 - der zweithöchsten Stufe bei Meta - führten.
In ihrer Antwort wies Tracy Clayton darauf hin, dass der KI-Agent in dieser Geschichte keine Anweisungen ausführte oder etwas veränderte. Er war lediglich ein Berater und ein Mensch setzte seine Anweisungen um. Im Wesentlichen wollte er damit betonen, dass der Fehler vom Arbeitnehmer und nicht von der KI begangen wurde. Es ist jedoch schwierig, dies als rein menschlichen Fehler zu bewerten.
"Der Mitarbeiter, der mit dem System kommunizierte, war sich völlig bewusst, dass er mit einem automatisierten Stick interagierte", so Clayton gegenüber The Verge. "Der Agent hat nichts anderes getan, als die Frage zu beantworten. Wenn der Ingenieur, der den Fall bearbeitet hat, besser informiert gewesen wäre oder zusätzliche Überprüfungen durchgeführt hätte, hätte dies vermieden werden können."
Diese Nachricht kommt zu einem besonders ungünstigen Zeitpunkt, denn erst vor wenigen Tagen war zu hören, dass Meta sich auf den größten Stellenabbau in seiner Geschichte vorbereiten könnte, wobei die Aufgaben der Mitarbeiter vermutlich künstlichen Intelligenztools zugewiesen werden.
Mehr als 20 Prozent der Mitarbeiter sollen zu Meta wechseln, um die Effizienz zu steigern. Nach den neuesten Zahlen würde dies die Entlassung von etwa 16.000 Mitarbeitern bedeuten. Auf der Grundlage der oben genannten offiziellen Informationen wäre es nicht überraschend, wenn sich unter den entlassenen Mitarbeitern auch die Person befindet, die das jüngste Missgeschick auf Anweisung des KI-Agenten verursacht hat.
Meta hat bereits im Jahr 2023 einen großen Vorstoß für generative KI in seinem internen Netzwerk unternommen und in den letzten Jahren kontinuierlich daran gearbeitet, KI zu einem möglichst effektiven Mitarbeiter zu machen. Und heute, da die KI-Agenten, wie oben erwähnt, bereits aktiv sind, könnte das Unternehmen die Zeit für einen drastischen Stellenabbau als reif ansehen. Der aktuelle Fall ist jedoch eine ernste Warnung, an dieser Front vorerst vorsichtiger zu sein.