Kategorien

NEUES KI-UNTERNEHMEN VOM EHEMALIGEN OPENAI-GRÜNDER GEGRÜNDET

Die Sicherheit ist das Hauptziel des Fachmanns und er will dem Druck der Verbraucher nicht nachgeben.
DemonDani
DemonDani
Neues KI-Unternehmen vom ehemaligen OpenAI-Gründer gegründet

OpenAI wurde 2015 von großartigen Menschen gegründet, und einige von ihnen sind auch heute noch Teil des Unternehmens. Im Laufe der Jahre haben jedoch einige von ihnen das Unternehmen verlassen. Letzten Monat kündigte Ilya Sutskever an, dass er das Unternehmen verlassen wird. Es hat nicht lange gedauert, um herauszufinden, was die Pläne des Profis nach seinem Ausscheiden sind.

Ilya Sutskever hat nicht die Absicht, sich von der künstlichen Intelligenz zu entfernen, und er hat sogar sehr ernste Pläne und Ziele, die er bereits umzusetzen beginnt. Der ehemalige Chefwissenschaftler und Sicherheitsspezialist von OpenAI möchte ein KI-Tool entwickeln, das auf einem relativ neuen Ansatz basiert. Er hat beschlossen, keinen OpenAI- oder Anthropic-Konkurrenten aufzubauen, sondern ein Startup, bei dem Sicherheit und Datenschutz an erster Stelle stehen.

Das Startup wird Safe Superintelligence Inc (SSI) heißen und sich auf ein Hauptziel konzentrieren: ein KI-System zu schaffen, das sicher und robust ist.

Das Schlachtfeld der großen Sprachmodelle und der künstlichen Intelligenz wird derzeit von einigen wenigen großen Unternehmen beherrscht, aber Ilya Sutskever glaubt, dass das Spiel noch lange nicht vorbei ist. Er will nicht einmal mit den Giganten konkurrieren, sondern ein KI-System schaffen, das tatsächlich sicher ist und den Datenschutz nicht auf die gleiche Art und Weise betrachtet wie OpenAI, Google oder sogar Microsoft.

Es muss ein gesundes Gleichgewicht zwischen Sicherheit und Möglichkeiten geben, sagt der Forscher, und man darf dem Druck der Verbraucher nicht nachgeben. So will Safe Superintelligence nicht darum konkurrieren, Menschen so schnell wie möglich zu bedienen und Millionen von Nutzern in kürzester Zeit zu vernetzen. Die Sicherheit wird bei allen Entwicklungen im Vordergrund stehen, und man will nichts überstürzen, ohne sicherzustellen, dass der ethische Betrieb nicht gefährdet wird. In den letzten 1,5 bis 2 Jahren haben wir immer wieder erlebt, wie Unternehmen versucht haben, Fehler zu beheben, aber SSI wird sich auf die Prävention konzentrieren.

Sie werden sich keine engen Produktzyklen setzen, sie werden nicht versuchen, irgendwelche Erwartungen des Managements zu erfüllen, sie werden nicht nach irgendeiner Form von Druck fragen, denn, so Sutskever, dies wird immer auf Kosten der Sicherheit zuerst gehen, weil man die Mängel der Sicherheit nicht zuerst sehen kann. "Unser Geschäftsmodell ist so konzipiert, dass Sicherheit, Schutz und Entwicklung von kurzfristigem kommerziellen Druck isoliert sind", heißt es in der Erklärung. "So können wir mit Zuversicht bauen."

Das Startup Safe Superintelligence wird mit mehreren Gründern gestartet. Ilya Sutskever wird von Daniel Levy und Daniel Gross unterstützt. Daniel Gross arbeitete zuvor bei Apple als Manager für verschiedene Entwicklungen im Bereich der künstlichen Intelligenz, Daniel Levy peig zuvor bei OpenAI und war dort Mitglied des technischen Personals. Das Trio wird höchstwahrscheinlich ein Team aufbauen, in dem angesichts der Ziele Entwickler mit einem Hintergrund in Sicherheitslösungen überwiegen werden.

Es handelt sich um erfahrene und hochkarätige Fachleute, die genau wissen, wie sie das neue KI-System mit ihrem eigenen Sprachmodell aufbauen müssen. Es wird auf jeden Fall interessant sein zu sehen, wie das Produkt von Safe Superintelligence aussehen wird, aber nach dem, was gesagt wurde, ist es sicherlich nicht zu erwarten, dass sie in absehbarer Zeit ein Verbraucherprodukt auf den Markt bringen werden.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang