L’application Podcasts dans iOS 17.4 propose une transcription automatique de ce qui est dit
Apple a repris une partie de l’une des fonctionnalités d’Apple Music et l’a amenée au Application de podcasts. Il s’agit du transcription vocale, un système qui identifie, reconnaît et retranscrit tout ce qui est dit dans un podcast et l’affiche à l’écran, facilitant ainsi le suivi. Ceci est particulièrement utile pour les personnes malentendantes.
L’amélioration viendra avec iOS 17.4. Ceci est un exemple clair de l’une des utilités des systèmes de sécurité. apprentissage automatique ou l’intelligence artificielle qu’Apple n’appelle jamais ainsi mais qu’elle intègre petit à petit dans ses services et produits.
Apple utilise également la reconnaissance vocale pour afficher les paroles des chansons dans Apple Music. Comme dans ce service, l’écran indique où dire quelque chose comme s’il s’agissait d’un karaoké. La transcription bouge au fur et à mesure que vous parlez, mais il est également possible de la déplacer au gré de l’utilisateur et de lire l’épisode en entier si c’est ce que vous souhaitez faire.
Pour l’instant, tous les épisodes ou tous les podcasts ne disposent pas de cette capacité de transcription vocale car de nombreux épisodes n’ont pas encore été analysés par ce système, mais ce n’est qu’une question de temps avant que cette amélioration ne soit pleinement étendue, de sorte qu’à l’avenir il n’y aura pas de transcription vocale. pas de podcast sans sa transcription.