Es ist schon mehr als ein Jahrzehnt her, dass Google seinen Nutzern die Möglichkeit gab, nach Bildern zu suchen. Google Lens ist eine verbesserte Version der ursprünglichen Bildsuchtechnologie, aber Lens hat seinen siebten Geburtstag schon lange hinter sich. Das Unternehmen hat viel Erfahrung in diesem Bereich und eröffnet den Nutzern nun neue Horizonte.
Google hat angekündigt, dass der Dienst Lens, der bisher direkt in die Google-Suche integriert war, künftig nicht nur Bilder, sondern auch Videos verarbeiten kann.
Heutzutage ist Google Lens ein hervorragendes Werkzeug, nicht nur für die einfache Bildersuche, sondern auch für die Erkennung von QR-Codes, ohne dass eine separate App erforderlich ist, und für die Unterstützung bei der Erledigung von Hausaufgaben, wenn Sie das brauchen. Es kann auch mathematische Formeln aus Bildern lösen und Fragen beantworten.
Bilder können verwendet werden, um dem Suchsystem viele Dinge zu zeigen, aber manchmal zeigt ein Foto nicht genau das, wonach der Nutzer sucht, während ein Video das Thema perfekt darstellen kann. In solchen Fällen kann nun Google Lens eingesetzt werden. Es wird der erste Dienst der Welt sein, der es den Nutzern ermöglicht, ihre Suche mit Videos zu beginnen. Es ist vielleicht nicht so klar, was man in einem Video herausfinden will wie in einem Foto, aber es kann als Krücke für die Suche verwendet werden.
Der Nutzer kann in das Suchfeld neben dem hochgeladenen Video eingeben, wonach er genau sucht. Aber um fair zu sein, muss man hier keine Zeit damit verbringen. Die Nutzer können einfach sagen, was sie unter dem Video herausfinden wollen, Google Lens wird die Audiospur separat verarbeiten und sofort die gewünschten Ergebnisse anzeigen.
Google gibt an, dass die KI-Übersichtsschnittstelle hier bereits verwendet wird, um die Ergebnisse anzuzeigen, was bedeutet, dass das Unternehmen einen Teil der Videoverarbeitung der künstlichen Intelligenz überlassen wird.
Vorerst kann die Google Lens-Videofunktion in den Search Labs ausprobiert werden, wobei noch nicht bekannt ist, ob sie in größerem Umfang zur Verfügung gestellt wird. Der Dienst wurde bereits mit Nutzern getestet. Das kann einige Zeit dauern, aber zumindest macht das Unternehmen keinen Unterschied zwischen den Plattformen. Die Videosuchfunktion wird sowohl für Android- und iOS-Smartphones als auch für Tablets angeboten.
Google arbeitet ständig daran, sein KI-System Gemini so weit wie möglich zu verbreiten, so dass es nicht verwunderlich ist, dass es bereits Google Lens erreicht hat. Es sollte jedoch hinzugefügt werden, dass aus diesem Grund die Glaubwürdigkeit der Antworten mit den gleichen Vorbehalten behandelt werden sollte wie die Antworten, die von KI-Suchen im Allgemeinen erhalten werden. Es besteht also die Möglichkeit, dass die Antworten halluziniert sind.
Zum technischen Hintergrund der neuen Funktion sagte Rajan Patel, dass die Verarbeitung der Bilder wie bisher Bild für Bild erfolgt, das System nun aber berücksichtigen kann, was in den aufeinanderfolgenden Bildern geschieht, und dass jetzt das Gemini-Modell verwendet wird. Im Prinzip hat das Unternehmen ein spezielles Gemini-Modell für diese Aufgabe entwickelt. In Kürze wird Google seinen Nutzern auch die Möglichkeit geben, neben der üblichen Bildersuche auch Sprachanfragen und -anweisungen in die Suchmaschine einzugeben.
Vorerst wird Google Lens nur die Stimme zur Beantwortung von Nutzerfragen verwenden und noch keine Umgebungsgeräusche zusammen mit dem Bild zur weiteren Verfeinerung der Ergebnisse verarbeiten. Dies gilt sowohl für die Video- als auch für die Sprachsuche. Das Unternehmen arbeitet jedoch auch an der Möglichkeit, nach Geräuschen zu suchen. In Zukunft könnte Google Lens in der Lage sein, einen auf Video aufgenommenen Vogel effizienter zu erkennen, indem es seine Stimme parallel zur Verarbeitung der Bilder identifiziert.
Diese Funktion wird nur einen großen Nachteil haben: die enorme erforderliche Rechenleistung. Heutzutage wird an allen Fronten darüber gesprochen, wie man die Umwelt schützen kann. Nun, eines ist sicher. Die Nutzer werden Google nicht mehr mit Videos für einfache Bildersuchen bombardieren. Der Datenverkehr könnte zwar erheblich zunehmen, aber das ist nur die eine Seite. Hinzu kommt, dass Googles Sprachmodelle die Inhalte verarbeiten werden, und es versteht sich von selbst, dass generative KI-Dienste derzeit mit einem enormen Leistungsbedarf arbeiten.
Es ist kein Zufall, dass Google bereits darüber nachdenkt, Atomkraftwerke für die Stromversorgung seiner verschiedenen Datenzentren zu nutzen. Clevere Funktionen wie die Google Lens-Videosuche, die einfach zu bedienen ist und sich an Millionen von Nutzern richtet, verspricht im Vergleich zu den bestehenden Lens-Funktionen sehr energieintensiv zu werden.