Google ist ständig bestrebt, das Beste aus der künstlichen Intelligenz herauszuholen, und natürlich war das Auftauchen von DeepSeek auch nicht gut für sie. Im Anschluss an OpenAI hat Google also Updates angekündigt, um Gemini von seiner besten Seite zu zeigen, und das frühere experimentelle Modell ist jetzt für jeden zum Ausprobieren verfügbar.

Nachdem DeepSeek einen kostenlosen Chatbot auf den Markt gebracht hatte, der bereits auf einem argumentativen Sprachmodell basierte und somit durchdachtere und genauere Antworten auf die ihm gestellten Fragen geben konnte, sahen andere die Notwendigkeit, in diese Richtung zu gehen. OpenAI hat vor einigen Tagen sein o3-mini-Modell frei zugänglich gemacht, und nun hat Google dasselbe getan und das Gemini 2.0 Flash Thinking-Modell der Öffentlichkeit zugänglich gemacht.

Diese Entwicklung befindet sich noch in einer experimentellen Version, was Google zu unterstreichen versucht, aber sie ist jetzt verfügbar, um in diesem Wettbewerb nicht zurückzubleiben. Ende letzten Jahres kündigte Google das Denkmodell Gemini 2.0 Flash Thinking an, das seither von einer begrenzten Anzahl von Nutzern getestet wurde und nun der breiten Öffentlichkeit vorgestellt werden kann. Mit diesem Modell werden die Eingabeaufforderungen einer detaillierten Analyse unterzogen, um sie besser zu verstehen und präzisere und hochwertigere Antworten zu geben.

Galerie öffnen

Das Modell Gemini 2.0 Flash Thinking wird wahrscheinlich das meiste Interesse auf sich ziehen, aber es wurden auch andere Innovationen entwickelt. Gemini 1.5 Flash war das primäre Chatbot-Modell, aber von nun an rückt das Unternehmen das Modell Gemini 2.0 Flash in den Vordergrund - wobei ein manueller Wechsel zurück zur vorherigen Generation weiterhin möglich ist. Erstmals auf der Google I/O 2024 vorgestellt, handelt es sich um eine multimodale Lösung, die mit 1 Million tokenisierten Kontextfenstern arbeitet und ihre Aufgabe mit herausragender Effizienz erfüllt - weshalb das Unternehmen sie auch kostenlos zur Verfügung stellt.

Galerie öffnen

Im Einsatz werden Sie sehen, dass die Antworten des generativen KI-Chatbots buchstäblich spektakulärer werden. Er wird Antworten auf die Fragen der Nutzer zusammen mit Bildern und eingebetteten Videos liefern. Das gesamte angezeigte multimediale Material wird aus dem Internet stammen und nicht von diesem generiert, und die Quelle wird in allen Fällen ausnahmslos angegeben werden. Darauf achtet Google bereits bei den Antworten. In Zukunft wird das Unternehmen auch Text-to-Speech einführen.

Das Unternehmen hat auch das Modell Gemini 2.0 Pro angekündigt, das sich noch in der experimentellen Version befindet. Das Unternehmen sagt, dass es sein bisher bestes Modell für die Lösung von Programmierproblemen und die Beantwortung komplexer Fragen geworden ist. Mit 2 Millionen tokenisierten Kontextfenstern, die bereits von Google angepasst wurden, wird es in der Lage sein, mit noch umfangreicheren Inhalten sicher zu arbeiten. Das Unternehmen hat eine zusammenfassende Tabelle mit seinen Ergebnissen veröffentlicht.

Galerie öffnen

Darüber hinaus kündigte das Unternehmen das Modell Gemini 2.0 Flash-Lite an, seine bisher leistungsstärkste Entwicklung. Es wird in etwa das gleiche Preis- und Leistungsniveau haben wie das Gemini 1.5 Flash, aber mit deutlich höherer Qualität der Antworten. Das Unternehmen erwartet, dass es ein großer Erfolg bei den Entwicklern sein wird. Es hat Gemini 2.0 Flash-Lite so günstig gemacht, dass es seinen Vorgänger in jedem wichtigen Test übertrifft.

Das Unternehmen hat sogar hinzugefügt, dass es für den multimodalen Betrieb ausgestattet ist und das Kontextfenster mit 1 Million Token bietet, das beim größeren Gemini 2.0 Flash verfügbar ist. Dieses Modell ist als Teil von Google AI Studio und Vertex AI in einer öffentlichen Vorschau verfügbar, es befindet sich also noch in der Entwicklung.

Galerie öffnen

Google hat auch eine aktualisierte Kostentabelle für die Gemini-Modelle veröffentlicht. Damit soll gezeigt werden, wie sparsam sie in der Nutzung sind. Dies ist kein überraschender Schritt seitens des Unternehmens, nachdem DeepSeek ebenfalls für Aufsehen sorgte, weil es in der Lage war, seine Konkurrenten bei der Preisgestaltung zu unterbieten. Eine aktuelle Grafik zeigt, dass Gemini 2.0 Flash jetzt billiger ist als DeepSeek. Die Verarbeitung von 1 Million Token kostet 0,1 $, was 0,15 $ für DeepSeek entspricht, und 0,4 $ für die Verarbeitung von 1 Million Token am Ausgang, was 0,55 $ für Chinese MI entspricht.

Teste

    Diesbezügliche Artikel

    Zurück zum Seitenanfang
    Unsere Website verwendet Cookies, um das Nutzererlebnis zu verbessern. Durch die weitere Nutzung dieser Website stimmen Sie der Verwendung von Cookies zu. Datensicherheitsinformationen Allgemeine Geschäftsbedingungen Impressum