Apple vermeidet den „großen Krieg der künstlichen Intelligenz“ vorerst fast vollständig. Microsoft, Meta und Google bringen jeden Monat oder besser gesagt jede Woche kleine und große Entwicklungen auf den Markt, und es gibt jüngste Berichte, dass auch Apple an einer Lösung arbeitet, die auf seine eigenen Bedürfnisse zugeschnitten ist und sich von den üblichen unterscheidet.
Es ist üblich, dass Apple versucht, in seiner Entwicklung etwas anders zu machen. Es versucht, einen Weg zu finden, um zu glänzen, selbst wenn es weit hinter seinen Konkurrenten zurückbleibt. Dies könnte auch bei der KI-Entwicklung der Fall sein. Der Bloomberg-Analyst Mark Gurman hat kürzlich enthüllt, was das Unterscheidungsmerkmal der KI-Innovation von Apple sein könnte.
Die spezielle generative KI und das zugrunde liegende Sprachmodell werden ausschließlich auf Smartphones und Tablets funktionieren.
Letztes Jahr hat Google mit seinen Pixel-Smartphones begonnen, die Bedeutung von KI stark zu betonen, und hat mehrere Entwicklungen im Zusammenhang mit KI vorgestellt. Dann kam Samsung und setzte sich mit der Galaxy S24-Serie an die Spitze. Dabei waren es nicht so sehr die Hardware-Verbesserungen in den Handsets, die die Aufmerksamkeit auf sich zogen, sondern die Galaxy-KI.
Sowohl die Pixels als auch das Galaxy AI-Bundle, das Samsung zusammengestellt hat, verfügen über kleinere und größere Funktionen, die bereits lokal ausgeführte generative KI-Technologie nutzen. Apple hingegen kann für sich in Anspruch nehmen, jede einzelne Funktion der eigenen KI lokal zu lösen. Und das Unternehmen wird in diesem Fall wahrscheinlich betonen, dass dadurch die Sicherheit der Nutzerdaten gewährleistet wird. Apple versucht stets, sicherheitsorientiert zu sein, und das Argument, dass sensible Daten nicht an Dritte weitergegeben werden können, wird oft als Argument für geräteeigene KI-Lösungen verwendet.
Neben dem besseren Datenschutz besteht ein weiterer Vorteil der lokalen Ausführung von KI-Operationen darin, dass sie schneller und zuverlässiger sein können. Funktionen, die sich auf Cloud-Dienste stützen, sind beispielsweise offline nicht verfügbar und können sich bei langsamen Verbindungen aufhängen und auch unerwarteten Datenverkehr erzeugen, was je nach Abonnement-Paket zu einer Gefährdung führen kann. Auch die Latenzzeit ist deutlich geringer, wenn die Ergebnisse lokal erzeugt werden können für iPhone, für iPad.
Die Erstellung eines eigenen großen Sprachmodells mag auf den ersten Blick wie eine große Aufgabe erscheinen, aber in Wirklichkeit ist es gar nicht teuflisch, und man kann mit bescheidenen Mitteln in wenigen Monaten ein funktionierendes, kompaktes LLM-System zusammenstellen. In den letzten 1,5 Jahren sind mehrere Lösungen aufgetaucht, die in wenigen Monaten entstanden sind. Elon Musk zum Beispiel hat letztes Jahr stolz darauf hingewiesen, dass die Entwicklung von Grok-1 etwa vier Monate gedauert hat, aber das ist nicht das einzige "Blitzprojekt" dieser Art. Und Apple hat nahezu unbegrenzte Ressourcen (Geld) zur Verfügung.
Berichten zufolge befindet sich das Unternehmen auch in Gesprächen mit mehreren großen KI-Giganten, und Gurman glaubt, dass Google im Moment der wahrscheinlichste Partner an dieser Front ist. Mehrere Funktionen könnten von Gemini oder einem anderen Google-Sprachmodell bedient werden. Für generative KI-Funktionen, die mehr Rechenleistung erfordern, könnte eine Partnerlösung ins Spiel kommen.