Generative KI-Chatbots gibt es bereits in ungezählter Zahl, denn neben großen Entwicklungen wie ChatGPT, Claude und Gemini wurden in den letzten Jahren viele kleinere Versuche gestartet. Wir berichten nun, dass auch Foxconn an dieser Front mitmischt, was etwas überraschend ist.
Foxconn ist einer der größten Auftragsfertiger der Welt, der iPhones, aber auch Pixels herstellt, und das taiwanesische Unternehmen hat unzählige Verbindungen. Das taiwanesische Unternehmen ist nicht nur in der Auftragsfertigung tätig, sondern auch in einer Reihe anderer Bereiche und hat einige interessante Entwicklungen vorzuweisen. Diesmal haben wir gesehen, dass es sein eigenes großes Sprachmodell geschaffen hat, wobei anzumerken ist, dass FoxBrain mit ziemlich starker Unterstützung der Industrie geboren wurde.
Meta lieferte die Architektur für die neue LLM-Basis, was die Entwicklungszeit erheblich verkürzte. FoxBrain baut auf Llama 3.1 auf, wobei auch die 70-Milliarden-Parameter-Version von Llama verwendet wird, die in Bezug auf Fähigkeiten und Wartungskosten am ausgewogensten ist. Und Nvidia hat dem Ingenieurteam von Foxconn beim Lernprozess geholfen, indem eine beträchtliche Anzahl von Nvidia H100-Grafikprozessoren hinter dem Dienst arbeitet.
Foxconn berichtet, dass dies das erste Sprachmodell ist, das für traditionelles Chinesisch optimiert ist, und auch das erste taiwanesische Modell.
Es gibt noch einige offene Fragen zu FoxBrain, aber wir haben erfahren, dass es bereits die Palette der Denkmodelle erweitert. Das macht es geeignet für die Lösung komplexer Probleme. Es schneidet in Tests zum komplexen logischen Denken und bei der Ableitung mathematischer Probleme gut ab. Es wird behauptet, dass die Entwickler ein einzigartiges adaptives Verfahren zur Reflexion des logischen Denkens eingesetzt haben, um das LLM-Tool für das autonome Denken zu optimieren.
Berichten zufolge dauerte die Schulung nur 4 Wochen. Wir haben auch erfahren, dass das Unternehmen 98 Milliarden Token an hochwertigen "Pre-Training"-Daten in 24 verschiedenen Themenkategorien in traditionellem Chinesisch erstellt hat. FoxBrain wird mit einem Kontextfenster von 128.000 Token arbeiten und nach Angaben des Unternehmens in allen getesteten Bereichen besser abschneiden als das zugrundeliegende Llama-3.1-70B. Foxconn räumte jedoch auch ein, dass dies immer noch eine kleine Verbesserung gegenüber DeepSeek darstellt, aber dennoch sehr wettbewerbsfähig ist.
Ursprünglich wurde FoxBrain für den internen Gebrauch entwickelt. Nach Angaben des Unternehmens wurde es dafür ausgebildet, Daten zu analysieren, die Entscheidungsfindung zu unterstützen, Dokumente effizienter zu verwalten, Programmierern bei der Arbeit zu helfen, komplexe mathematische Berechnungen durchzuführen und Probleme zu lösen. Es kann auf vielfältige Weise für alltägliche Fertigungsaufgaben eingesetzt werden und ist quelloffen, so dass es noch flexibler eingesetzt werden kann.
Foxconn beabsichtigt nun, das FoxBrain-Modell seinen Fertigungspartnern zur Verfügung zu stellen. Dies könnte eine große Hilfe sein: Künstliche Intelligenz in industriellen Umgebungen für Mitglieder der Lieferkette.