Adobe ist an der KI-Front nicht so prominent wie Google, OpenAI oder Microsoft, aber das Unternehmen arbeitet an einigen sehr spannenden Lösungen in diesem Bereich und ist damit recht erfolgreich. Er hat schon früher über Tools zur Videogenerierung gesprochen und jetzt einige davon in Aktion gezeigt.
Adobes KI-Dienst Firefly wird in der Lage sein, Videos anhand von einfachen Textanweisungen zu erstellen. Sie können der KI aber auch "Rohmaterial" in Form eines Bildes zur Verfügung stellen.
Firefly entwickelt sich sehr gut, und Adobe versucht, Sie über alle wichtigen Meilensteine auf dem Laufenden zu halten, damit Sie so viel wie möglich davon erfahren. Der Dienst wurde im März 2023, also vor 1,5 Jahren, eingeführt, und bereits im April gab das Unternehmen bekannt, dass es neben der einfachen Bilderzeugung auch an Funktionen zur Videoerstellung arbeitet. Über Creative Cloud werden diese Werkzeuge auch in den anderen Diensten des Unternehmens verfügbar sein, wobei die Videofunktionen beispielsweise in Premiere Pro eingebunden werden.
Für das Text-zu-Video-Modell, das Adobe gerade eingeführt hat, bietet Adobe den Nutzern mehr Einstellungsmöglichkeiten. Ziel ist es, das gewünschte Ergebnis schneller zu erreichen. Das spart den Anwendern Zeit und Adobe-Rechenkapazität. Die Erstellung von Videos ist sicherlich ein unglaublich strom- und energieintensiver Vorgang, so dass es nützlich sein wird, den Kamerawinkel, die Schwenkung und die Kamerabewegung während der Videoerstellung auswählen zu können.
Wenn der Benutzer ein Foto hat, kann er es auch für die Videoerstellung verwenden. Das Foto kann als gute Grundlage für eine von der KI erstellte Szene verwendet werden. Das kann nützlich sein, wenn man z.B. B-Roll-Videos für ein Video produzieren muss und nur Fotos zur Verfügung stehen. Bisher fügte der Nutzer einfach ein Foto ein, das für einige Sekunden sichtbar war. Mit diesem Tool können aber auch solche Fotos aufgenommen werden. Videos, die aus einem Foto erstellt werden, können auch mit einer sehr langen Textanweisung versehen werden.
Adobe arbeitet auch an anderen Verbesserungen. Ein Werkzeug namens "Generative Extend" wird als Teil von Premier Pro entwickelt. Der Videobearbeitungsdienst wird voraussichtlich generative KI verwenden, um einzelne Aufnahmen zu patchen. Durch die Verarbeitung vorhandener Frames wird die KI in der Lage sein, Szenen zu verbessern. Videobearbeiter kennen das, wenn eine Aufnahme genau das richtige Maß an Bewegung am Ende benötigt, aber nicht mehr vorhanden ist. In diesem Fall ist diese Innovation sehr nützlich.
Generative KI-Videogeräte werden immer so eingestellt, dass sie "kommerziell sicher" sind, d. h. sie können keine gewalttätigen oder nackten Inhalte produzieren. Sie werden von Adobe anhand frei zugänglicher und kostenloser Inhalte trainiert. Und vorerst sind die Videos auf 5 Sekunden begrenzt.
Die Qualität der Videos ist in den vorläufigen Demos recht gut, weshalb wir zuversichtlich sein können, dass die Entwicklung nach der Veröffentlichung nicht enttäuschen wird. Natürlich stecken die KI-Werkzeuge für die Videogenerierung noch in den Kinderschuhen und werden sich in den nächsten Jahren sicherlich noch stark weiterentwickeln, aber Adobes erste derartige Werkzeuge könnten bereits im nächsten Jahr in der Live-Demonstrationsphase sein, während die Betatests noch in diesem Jahr beginnen.