OpenAI legt mit der Einführung der GPT-5.4-Modelle ein hohes Tempo vor, und es ist schon jetzt klar, dass es einen sehr breiten Nutzerkreis abdecken will. Das GPT-5, GPT-5.2 und GPT-5.3 werden bald vollständig ausgemustert, da das GPT-5.4 nach den Versionen Thinking und Pro nun auch die Versionen Mini und Nano erhalten hat.
Bei GPT-5.4 mini und GPT-5.4 nano war es das primäre Ziel der Entwickler, die Fähigkeiten von GPT-5.4 in ein kleines Paket zu packen. Das bedeutet, dass die neuen Funktionen weit weniger Ressourcen benötigen und sich gut für neue Anwendungen eignen. Sie sind kostengünstig in der Anwendung, können sogar in lokalen, isolierten Umgebungen betrieben werden und sind in der Lage, große Mengen an Aufgaben mit geringer Latenz zu bewältigen.
OpenAI wird die Nano- und Mini-Versionen von GPT-5 durch Nano- und Mini-Modelle ersetzen, die die GPT-5.4-Basis verwenden, und der Fortschritt wird deutlich sein. Sie werden in allen Bereichen besser abschneiden. Der GPT-5.4 mini wird sich bei der Programmierung von auszeichnen, logisch denken und auch multimodale Aufgaben leichter lösen. Er wird bis zu doppelt so schnell laufen wie sein Vorgänger und bei einfacheren Prozessen fast sofort Antworten liefern.
Der GPT-5.4 nano wird das erschwinglichste Mitglied des neuen OpenAI-Angebots sein und in puncto Kosteneffizienz besser sein als je zuvor. Man wird ihm Aufgaben anvertrauen können, bei denen Geschwindigkeit und Latenzzeit wirklich kritisch sind, und er wird seine Arbeit reibungslos und kostengünstig erledigen. Er wird deutlich leistungsfähiger sein als der GPT-5 nano bei der Klassifizierung, der Datenverarbeitung und bei der Behebung kleinerer Programmierfehler. Er kann als kodierender Subagent in Support-Umgebungen eingesetzt werden.
Die Entwicklung von Agenten mit künstlicher Intelligenz hat in letzter Zeit viel Aufmerksamkeit erregt, und diese Ankündigung ist in dieser Hinsicht von Bedeutung. Nach Angaben des Unternehmens wird das GPT-5.4-Minimodell in der Lage sein, die Ausführung komplexer, komplizierter Agentenaufgaben zu skalieren.
"Das Modell ist in der Lage, Screenshots von dichten Benutzeroberflächen schnell zu interpretieren, um Computer-Nutzer-Aufgaben mit hoher Geschwindigkeit auszuführen. Laut OSWorld-Verified nähert sich der GPT-5.4 mini dem GPT-5.4 an, während er den GPT-5 mini deutlich übertrifft", betonte das Unternehmen.
Im SWE-Bench Pro Test ist die GPT-5.4 mini sowohl schneller als auch genauer als die GPT-5 mini und liefert letztlich qualitativ bessere Antworten zu geringeren Kosten. Im Vergleich zu den bisherigen 45,7 % schneidet sogar das GPT-5.4 nano mit 52,4 % besser ab, während das GPT-5.4 mini nun 54,4 % liefert und damit nahe am GPT-5.4 liegt, das auf 57,7 % kam. Im Terminal-Bench 2.0 schneidet das GPT-5.4 mini fast 60 % besser ab als das GPT-5 mini, und die Liste der Testverbesserungen lässt sich beliebig fortsetzen.
OpenAI hat auch gesagt, dass das GPT-5.4 mini das größere Modell sehr gut ergänzen wird, wenn es als Subagent arbeitet. So wird der GPT-5.4 im Codex-Tool in der Lage sein, verschiedene einfachere Teilaufgaben an den GPT-5.4 mini zu delegieren. So kann er beispielsweise eine Codebasis viel schneller scannen und das größere Modell kann sich auf das Gesamtbild konzentrieren.
GPT-5.4 mini ist über ChatGPT verfügbar und wird auch im Codex und auf API-Ebene bereitgestellt. Das GPT-5.4 nano hingegen wurde vorerst nur mit API-Zugang auf den Markt gebracht. Bei letzterem kostet die Verarbeitung von 1 Million Token nur 0,2 $, während die Ausgabe 1,25 $ kostet. Der GPT-5.4 mini ist mit 0,75 $ für die Verarbeitung von 1 Million Token etwa dreimal so teuer, während er für 4,5 $ genauso viel Inhalt erzeugt.