Google hat wahrscheinlich mehr Erfahrung in der Entwicklung von smart glasses als jeder andere Akteur auf dem Markt. Das Unternehmen ist seit 2010 in dieser Produktkategorie aktiv, hat aber noch keine großen Erfolge erzielt. Derzeit arbeitet das Unternehmen an einem neuen Prototyp, der kürzlich bei einem TED-Vortrag vorgestellt wurde.
Shahram Izadi, Googles Leiter für die Entwicklung von Augmented und Virtual Reality, trug das spezielle Gerät. Google ist nun dabei, künstliche Intelligenz in die Brille zu integrieren. Das Unternehmen hat seine KI-fähige Brille bereits letztes Jahr auf der Google I/O vorgestellt. Jetzt, auf der TED-Konferenz, wird das Publikum wahrscheinlich das Ergebnis dieser Entwicklung sehen.
Google hat gleich mehrere Eisen im Feuer: Das Unternehmen arbeitet auch an einer fortschrittlichen Virtual-Reality-Brille in Zusammenarbeit mit Samsung. Samsung, Google und Qualcomm haben bereits angekündigt, dass sie als Industrie zusammenarbeiten, um den Verbrauchern diese Geräte in Zukunft in der richtigen Form und mit der richtigen Funktionalität zur Verfügung zu stellen.
Die Smartglasses könnten viele interessante Funktionen haben, und der Prototyp von Google wurde auf der TED-Konferenz live vorgeführt. Die Brille kann als Dolmetscher fungieren und zwischen verschiedenen Sprachen übersetzen. Auf der Bühne übersetzte sie live zwischen Englisch und Persisch, was von Shahram Izadi zusammen mit Googles Produktmanager Nishtha Bhatia demonstriert wurde. Die Brille verfügt sowohl über eine Kamera als auch über ein Display. Sie kann einen in einer Fremdsprache geschriebenen Text übersetzen, indem sie ihn auf dem Bildschirm anzeigt, und sie kann Diagramme analysieren und Textinformationen zur Interpretation bereitstellen.
Die Brille verfügt über einen berührungsempfindlichen Stiel und kann durch Berührung mit verschiedenen Gesten gesteuert werden, wodurch der KI-basierte digitale Assistenzdienst aktiviert werden kann. Google setzt Gemini in der Brille ein, was nicht verwunderlich ist, da sich das Unternehmen in letzter Zeit stark auf diese Technologie konzentriert hat, zusammen mit einigen anderen kleineren Projekten von Bedeutung. Ein wichtiger Teil des Prototyps ist das sprachbasierte Tool für natürliche Sprache, das auch dem Gemini Live-Dienst zugrunde liegt. Gemini Live verfügt jetzt auch über maschinelles Sehen, das Teil der in der Demo verwendeten Brille ist.
Izadi und Bhatia zeigten auf der TED auch, dass die Brille über ein eigenes "Gedächtnis" verfügt. Sie kann sich an Dinge erinnern, die sie während der Benutzung gesehen hat. Google hat diese Fähigkeit bereits im letzten Jahr vorgeführt, aber jetzt konnten sich die Menschen selbst davon überzeugen, wie effektiv sie im wirklichen Leben funktioniert. Durch die kontinuierliche Verarbeitung von Bildern kann die in das Gerät eingebettete KI dem Nutzer zum Beispiel sagen, wo er sein Smartphone zuletzt gesehen hat oder welche Telefonnummer auf einem Kontakt stand, den er zuvor gesehen hat.
Die Smartglass verwaltet Google-Dienste über das verbundene Smartphone. Es kann angewiesen werden, eine beliebige Google-App zu verwenden, kann Informationen aus Gmail-Mails abrufen, geplante Termine im Google-Kalender sehen und vieles mehr. Wenn Sie Musik hören möchten, können Sie das Add-on anweisen, YouTube Music zu starten, und es kann auch Daten an die in Google Maps gestartete Navigation streamen, so dass Sie während der Fahrt den Blick nicht von der Straße nehmen müssen.
Es ist noch nicht bekannt, ob Google diese Brille auf den Markt bringen wird, aber es bleibt abzuwarten, was die Zukunft bringt. Möglicherweise bringt das Unternehmen ein auf dieser Technologie basierendes Produkt unter der Marke Samsung auf den Markt.