OpenAI présente Whisper, son IA de reconnaissance vocale multilingue open source

OpenAI présente sa dernière IA en date : Whisper. Derrière ce nom, un système de reconnaissance vocale multilingue à la précision redoutable, qui plus est open source.

La reconnaissance vocale a toujours été un domaine particulièrement complexe à traiter pour les IA (coucou les sous-titres auto-générés sur YouTube 👋).

Alors que des géants de la tech comme Google, Amazon, Apple et Meta disposent chacun de leur propre système de reconnaissance vocale, bien souvent intégré au coeur de leurs services, OpenAI propose avec Whisper de mettre à disposition de la communauté open source une IA robuste, adaptée à plusieurs langues et capable de les traduire en anglais.

Selon le laboratoire de recherche, que l'on connaît déjà pour ses produits GPT-3 (IA capable d'écrire), DALL-E (générateur d'images à partir de texte), mais aussi OpenAI Codex (utilisé par GitHub Copilot), Whisper se classerait au-dessus des systèmes de retranscription vocale déjà existant par le volume de ses données d'entraînement.

Rendez-vous compte : 680 000 heures de données multilingues et "multitâches" collectées sur le web ont été exploitées pour l'apprentissage de Whisper. Ce jeu de données colossal permettrait ainsi à cette IA, selon les ingénieurs d'OpenAI, d'être capable de reconnaître et comprendre des accents, dont certains peu communs, mais également de faire un focus sur la parole malgré la présence de bruit de fond, et de comprendre du jargon technique.

Dans le billet publié sur son blog officiel, le laboratoire présente 4 exemples d'audios traités par OpenAI. Parmi ces 4 fichiers audio, un anglais à la vitesse de la lumière ("speed talking"), un extrait d'une chanson de K-Pop (meh), un audio avec un accent écossais à couper au couteau (à la hache, même) et... du français (cocorico) !

Sous chacun de ces audios, OpenAI affiche la retranscription formulée par l'IA, et à l'exception d'une petite coquille (assumée) pour la retranscription de l'audio en accent écossais, c'est un sans-faute pour la nouvelle IA du labo.

Whisper a néanmoins ses limitations, sur la partie prédiction de texte entre autres : le système ayant été entraîné sur des données volontairement "bruyantes", OpenAI avertit qu'il n'est pas impossible que l'IA puisse parfois ajouter d'elle-même certains mots n'ayant pas été prononcés dans ses retranscriptions.

De même, et ça se comprend, Whisper n'excelle pas pour tous les langages, notamment pour ceux qui n'étaient pas forcément représentés dans son jeu de données (seulement un tiers du jeu de données audio n'était pas en anglais).

OpenAI espère que la précision élevée de Whisper et sa facilité d'intégration permettra aux développeurs de mettre en place des interfaces vocales dans de plus nombreuses applications, ce qui pourrait contribuer de manière générale à améliorer l'accessibilité numérique.

L'équipe d'OpenAI a partagé son document de recherche à propos de Whisper ainsi que le projet dans un GitHub dédié.

À lire aussi sur Les Joies du Code :