Kategorien

EHEMALIGER INTEL-CEO SAGT, DER MARKT HABE FALSCH AUF DAS CHINESISCHE DEEPSEEK REAGIERT - ER ZIEHT ES VOR, NVIDIA-AKTIEN ZU KAUFEN

Das große Sprachmodell hat den Markt aufgerüttelt.
J.o.k.e.r
J.o.k.e.r
Ehemaliger Intel-CEO sagt, der Markt habe falsch auf das chinesische DeepSeek reagiert - Er zieht es vor, Nvidia-Aktien zu kaufen

Das von den Chinesen entwickelte DeepSeek, ein sehr leistungsfähiges und in vielerlei Hinsicht bahnbrechendes Modell für große Sprachen, hat in den letzten Tagen einen riesigen Aufruhr ausgelöst, der für Nvidia besonders schmerzhaft war, da der Aktienkurs des Unternehmens auf fast 600 Milliarden Dollar gefallen ist. Der Aktienkurs wird sich natürlich langsam wieder erholen, wenn sich der Markt wieder beruhigt hat.

Der ehemalige Intel-CEO Pat Gelsinger teilte kürzlich auf den virtuellen Seiten von LinkedIn seine Gedanken zu den durch DeepSeek verursachten enormen Marktverwerfungen mit und sagte, er halte die Reaktion des Marktes für völlig fehlgeleitet. Dies war für ihn sicherlich eine gute Sache, da er glaubt, dass der enorme Rückgang des Aktienkurses von Nvidia eine großartige Gelegenheit zum Kauf von Aktien ist, da er erwartet, dass der Aktienkurs dort weitermachen wird, wo er vor dem großen Rückgang aufgehört hat.

Er ist der Meinung, dass die Reaktion des Marktes in vielerlei Hinsicht fehlgeleitet war, da er glaubt, dass die Senkung der KI-bezogenen Kosten den Zielmarkt nicht nur verkleinern, sondern sogar vergrößern wird. Er machte keinen Hehl daraus, dass er sich über diese Fehlreaktion freut, da er von einem niedrigeren Aktienkurs profitiert - mehr Aktien für den gleichen Geldbetrag. Gelsinger sagt, dass die Geschichte der Informatik in den letzten fünf Jahrzehnten ihn drei sehr wichtige Lektionen gelehrt hat, die man im Falle eines solchen Ereignisses im Hinterkopf behalten sollte.

Die erste ist, dass man den Markt nicht schrumpfen lässt, wenn man die mit der Computernachfrage verbundenen Kosten senkt, sondern dass man ihn im Gegenteil vergrößert. Ein gutes Beispiel dafür ist das, was in der Vergangenheit in den Segmenten PC und mobile Geräte geschah: Durch den technologischen Fortschritt wurden die Produkte breiter verfügbar, was zu einem größeren Markt und damit zu höheren Umsätzen führte. Er ist der Ansicht, dass dasselbe mit der KI geschieht: Je mehr KI verfügbar ist, desto mehr wird sie genutzt, was letztlich zum Wachstum der Branche führen wird.

Die zweite Lektion ist, dass Einschränkungen und Entbehrungen sehr nützlich und wichtig sind, damit neue und innovative Ideen geboren und verwirklicht werden können. Er wies darauf hin, dass das chinesische Team, das hinter DeepSeek steht, trotz Exportbeschränkungen und begrenzter Ressourcen eine Lösung von Weltklasse zu einem Bruchteil der üblichen Kosten geschaffen hat. Dieser Einfallsreichtum entspreche dem, was man in der Vergangenheit bei Pionieren der Informatik gesehen habe, die ihre besten Ergebnisse oft unter erheblichen Einschränkungen erzielt hätten.

Die dritte Lektion ist, dass Offenheit auch für die Entwicklung der KI entscheidend ist. Er ist besorgt über den Trend zu Ökosystemen, die um geschlossene, proprietäre Technologien herum aufgebaut sind, da er glaubt, dass offene Ökosysteme in der Regel zu besseren Ergebnissen führen. Offene Lösungen gewinnen immer dann, wenn sie die richtige Dynamik und Unterstützung erhalten. DeepSeek, so sagt er, ist führend im Bereich der KI-Modellierung, wo das Umfeld in letzter Zeit immer geschlossener geworden ist.

Während der obige Beitrag an sich schon ein großer Erfolg war, könnte er durch Pat Gelsingers Ankündigung, dass Ingenieure in seinem eigenen Startup Gloo bereits DeepSeek R1 verwenden, noch gesteigert worden sein - ein weiterer Hinweis auf die Bedeutung des neuen großen Sprachmodells.

Galerie öffnen

DeepSeek hat sich explosionsartig entwickelt, weil es für jedermann kostenlos ist, kein Abonnement wie die Lösungen der Konkurrenten erfordert und im Gegensatz zu den Konkurrenten auf entfernten Servern - nicht nur in der Cloud - ausgeführt werden kann, sondern auch in destillierten Modellen, die auf Smartphones und PCs laufen können. Diese benötigen deutlich weniger Ressourcen als die ursprüngliche R1-Version, obwohl Sie immer noch mindestens zwei GeForce RTX 3090 Ti benötigen, um die Version mit 70 Milliarden Parametern auszuführen.

Nach den bisherigen Tests schneidet DeepSeek bei einer Vielzahl von Aufgaben recht gut ab, in einigen Fällen sogar deutlich besser als seine direkten Konkurrenten und schlägt sogar das neueste große Sprachmodell von ChatGPT. Dies ist auch deshalb eine große Leistung, weil für das Training von DeepSeek deutlich weniger Ressourcen benötigt wurden, als wir es von den Lösungen der Konkurrenten gewohnt sind, aber es ist immer noch eine beträchtliche Menge an Rechenleistung erforderlich, um LLM zu trainieren, aber es ist bereits sehr beeindruckend in Bezug auf die Effizienz.

Natürlich steht die Entwicklung nicht still, es gibt noch viel Arbeit an diesem großen Sprachmodell, um es noch leistungsfähiger und genauer zu machen.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang