Wir wissen noch nicht, welche Haltung Apple zur KI einnehmen wird, was die Technologie betrifft, über die es sprechen wird, aber es bereitet sich sicherlich auf Entwicklungen vor, die seine Konkurrenten der KI zuschreiben werden. Und iOS 17.4 wird in dieser Hinsicht interessant sein, mit der Einführung von automatisch generierten Transkripten in der Podcasts-App.
Apple hat die Vision Pro-Brille letztes Jahr in einer extrem langen Präsentation vorgestellt, ohne ein einziges Mal augmented oder virtual reality auf der Bühne zu erwähnen. Das Unternehmen vermied die magischen Worte mit fast peinlicher Detailgenauigkeit. Auf der Website des Produkts werden AR oder VR nicht einmal zufällig erwähnt; stattdessen bezeichnet das Unternehmen Vision Pro als Spatial Computing. Es könnte gut sein, dass die generative KI in ähnliche Fußstapfen treten wird, und das könnte bald ans Licht kommen.
In der ersten Beta-Version von iOS 17.4 ist mit der Podcasts-App eine Entwicklung zu beobachten, die so gut wie jedes Tech-Unternehmen heute der Einführung künstlicher Intelligenz zuschreiben würde. In der App werden Transkripte erscheinen, die von Apples System, das die Audiodaten verarbeitet, erstellt werden.
Dadurch wird es sogar möglich sein, die Talkshows innerhalb der Podcasts-App zu lesen, was nützlich sein wird, wenn der Benutzer sie nicht in irgendeiner Form anhören kann. Zum Beispiel, wenn man in einem Wartezimmer sitzt und seine Umgebung klar und deutlich hören muss, oder wenn man sich in einer Gruppe befindet, in der man die anderen nicht stören will, aber keine Kopfhörer in die Ohren stecken möchte.
Textabschriften haben den Vorteil, dass man die Möglichkeit hat, zu lesen. Sie können verwendet werden, um nach verschiedenen Passagen zu suchen. Man braucht nur ein Stichwort einzugeben, um zu der Stelle zu springen, an der genau das gesagt wird, was Sie wissen wollen. Die Podcasts-App kann dann den entsprechenden Teil des Podcasts abspielen, um die Leute darauf aufmerksam zu machen. Es wird auch möglich sein, genau zu sehen, wann ein weniger interessanter Teil der Sendung endet, so dass der Hörer zu diesem Teil vorspringen kann.
Die Funktionen für das Transkript werden über eine Schaltfläche mit einem Zitat-Symbol in der linken unteren Ecke zugänglich sein. Wie bei jeder generativen KI ist auch die eingebaute Innovation von Podcasts fehleranfällig. Es lohnt sich auf jeden Fall für die Ersteller, diese zu lesen, um sicherzustellen, dass das Geschriebene mit dem Gesagten übereinstimmt. Es wird einfach sein, alle kleineren oder größeren Fehlinterpretationen manuell zu korrigieren. Und die Podcaster werden auch die Möglichkeit haben, komplett selbst geschriebene Texte beizusteuern.
Für neu hochgeladene Podcasts erstellt Apple Podcasts nun automatisch ein Transkript, das mit der Zeit auch rückwärtskompatibel sein wird. So werden auch bereits hochgeladene Sendungen mit Untertiteln versehen. Das Unternehmen hat sich nicht dazu geäußert, wie dieser Prozess funktionieren wird, aber wenn iOS 17.4 für iPhones ausgerollt wird, könnte es dazu Informationen geben.
Anfänglich werden vier Sprachen unterstützt, aber es wird nicht erwartet, dass regionale Einschränkungen gelten werden. Weltweit werden Podcast-Aufnahmen mit Untertiteln in 170 Ländern verfügbar sein. Neben Englisch werden auch Französisch, Deutsch und Spanisch unterstützt, was im Laufe der Zeit noch erweitert werden soll.