Als Entwickler der weltweit größten mobilen Plattform war Google auch auf dem Mobile World Congress vertreten, hatte aber dieses Jahr nicht viel Neues zu zeigen. Das Unternehmen bereitet sich bereits auf seine eigene große Veranstaltung, Google I/O, im Mai vor. Im Hintergrund ist Android 16 in vollem Gange, aber das Unternehmen sprach in Barcelona über die Beziehung zwischen Gemini und Smartphones.

In Kürze wird Google die Funktionen der künstlichen Intelligenz für Live-Videos und den Austausch von Bildern einführen, die im Rahmen der Project Astra-Initiative entwickelt wurden.

Das Unternehmen entwickelt bereits seit einiger Zeit den Live-Teil des Gemini-Chatbots, der sich auf das Teilen von Live-Inhalten konzentriert. Project Astra wurde auf der letztjährigen Google I/O-Entwicklerkonferenz vorgestellt, und seither haben viele darauf gewartet, dass das Unternehmen es endlich enthüllt. Dieses Mal hat der Suchmaschinenriese gesagt, dass er nur noch eine Armlänge von der Veröffentlichung neuer Funktionen entfernt ist. Diejenigen, die am MWC teilgenommen haben, konnten sich selbst davon überzeugen, wie sich die Technologie in der realen Welt verhält.

Mit Gemini Live, einem videobasierten Dienst, wird der Chatbot in der Lage sein, die Fragen der Nutzer zur realen Welt um sie herum in kürzester Zeit zu beantworten. Man muss der KI nicht länger etwas eintippen oder beschreiben, sondern kann ihr sofort die reale Welt live zeigen. Dadurch wird die Interaktion mit der generativen KI noch natürlicher, noch reibungsloser.

Das videobasierte Gemini Live wird die komplexeste multimodale Entwicklung sein, die je von Google entwickelt wurde.

Die Funktion "Share screen with Live" wird nach dem Update in der Gemini-App auf android Smartphones verfügbar sein. Hier kann man der KI statt des Kamerabildes den aktuellen Inhalt auf dem Display des Gerätes zeigen. Mit Hilfe der Bildschirmfreigabe wird Gemini auch in der Lage sein, Ihnen bei der Verwaltung Ihres Mobiltelefons zu helfen, bietet Ihnen aber auch die Möglichkeit, es live nach Apps, Dokumenten, früheren Fotos usw. zu fragen.

Während der gemeinsamen Nutzung des Bildschirms werden die Steuerelemente von Gemini in einem schwebenden Fenster oberhalb des Bildschirminhalts angezeigt, ähnlich dem Benachrichtigungsfeld, das bei freihändigen Anrufen erscheint. Dadurch fühlt es sich ein wenig so an, als ob Sie mit einem Menschen sprechen, wenn Sie mit der KI interagieren. Beim Teilen eines Live-Kamerabildes sind die Gemini Live-Bedienelemente jederzeit vom unteren Rand des Displays aus zugänglich.

In beiden Fällen gibt es die Möglichkeit, den Bildstrom für eine kurze Zeit anzuhalten. Dies kann nützlich sein, wenn der Nutzer eine wichtige neue Nachricht erhält, auf die er antworten möchte, aber nicht möchte, dass Gemini die Nachricht "sieht" oder verarbeitet, oder einfach den KI-basierten Arbeitsablauf nicht mit unnötigen Informationen stören möchte.

Die neuesten Informationen über die Entwicklung von Project Astra besagen, dass es eines der Gemini 2.0 Sprachmodelle verwenden wird, aber es ist nicht klar, welches. Unternehmen neigen dazu, sich auf kleinere, kompaktere LLM-Systeme für die Sprach- und Bildaustauschfunktionalität zu verlassen, da diese in der Lage sind, ausreichend schnell zu reagieren, um eine gute Benutzererfahrung zu bieten. Wie die Demos zeigen, werden die Fragen zur Bildfreigabe von Gemini Live nicht sofort beantwortet, sondern erst nach einiger Wartezeit.

Diejenigen, die ein Gemini Advanced-Abonnement haben, werden die ersten sein, die von den neuesten Erweiterungen profitieren. Möglicherweise wird Google zu einem späteren Zeitpunkt auch eine begrenzte kostenlose Vorschau zur Verfügung stellen, aber das steht noch nicht fest.

Teste

    Diesbezügliche Artikel

    Zurück zum Seitenanfang
    Unsere Website verwendet Cookies, um das Nutzererlebnis zu verbessern. Durch die weitere Nutzung dieser Website stimmen Sie der Verwendung von Cookies zu. Datensicherheitsinformationen Allgemeine Geschäftsbedingungen Impressum