Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : VLC intègre des sous-titres générés par IA, Google fait face aux critiques sur sa fonctionnalité AI Overview, Microsoft dévoile son modèle de langage open source Phi-4, et une nouvelle approche de la documentation technique centrée sur les utilisateurs. C’est parti !Commençons par VLC, le célèbre lecteur multimédia open source, qui a récemment célébré au CES 2025 à Las Vegas son 6ᵉ milliard de téléchargements. Pour marquer cet exploit, l'association VideoLAN, qui développe VLC, a introduit une nouvelle fonctionnalité très attendue : le sous-titrage automatique des vidéos grâce à une intelligence artificielle générative. Cette innovation utilise le modèle d'IA Whisper pour transcrire et traduire des vidéos directement sur l'ordinateur de l'utilisateur, sans nécessiter de fichiers de sous-titres externes ni de connexion Internet. Tout se fait localement, garantissant ainsi la confidentialité des données et une synchronisation parfaite des sous-titres avec la vidéo. Cette approche respecte la philosophie open source de VLC, tout en résolvant les problèmes courants de désynchronisation et de disponibilité des sous-titres dans différentes langues.Cependant, cette avancée technologique pose des défis. Les modèles de transcription étant volumineux, pesant plusieurs gigaoctets, VideoLAN pourrait faire face à une charge importante lors des téléchargements massifs au lancement. En tant que projet open source aux ressources limitées, l'association pourrait avoir besoin de soutien pour déployer cette fonctionnalité à grande échelle. De plus, VideoLAN envisage d'ajouter une autre innovation : l'intégration d'un interprète en langue des signes américaine dans le coin de la vidéo, rendant le contenu encore plus accessible.Passons maintenant à Google, qui a lancé en mai sa fonctionnalité de recherche AI Overview. Ce lancement a été largement critiqué en raison de résultats erronés et parfois incohérents. L'outil a, par exemple, fourni des conseils inappropriés, diffamé des personnalités publiques et plagié le travail de journalistes. Ces problèmes ont conduit Google à ajouter une option pour désactiver entièrement cette fonctionnalité. Même après plusieurs mois, l'outil continue de produire des informations incorrectes. Un utilisateur de Reddit a découvert que la recherche du terme "magic wand pregnancy" renvoyait une réponse inappropriée, démontrant une mauvaise compréhension du contexte par l'IA. Alimentée par le modèle Gemini, cette fonctionnalité est censée utiliser des capacités de raisonnement en plusieurs étapes pour répondre à des questions complexes. Cependant, cet exemple illustre les limites actuelles de l'IA lorsqu'elle est confrontée à des termes ambigus ou à des contextes multiples.Il est également intéressant de noter que Google a signé un contrat de 60 millions de dollars par an avec Reddit pour utiliser le contenu des utilisateurs afin d'entraîner ses modèles d'IA. Reddit étant l'une des rares plateformes à autoriser le contenu pour adultes, cela souligne les défis liés à l'utilisation de données provenant de sources variées pour l'entraînement des IA. Cela met en lumière l'importance de formuler les recherches de manière précise pour obtenir des réponses pertinentes, car les modèles d'IA sont influencés par les données sur lesquelles ils ont été formés.En parlant de modèles de langage, Microsoft a récemment publié officiellement le modèle Phi-4 sous licence MIT. Ce modèle de langage de grande taille (LLM) se distingue par l'utilisation innovante de données d'entraînement synthétiques. Les versions précédentes non officielles avaient déjà montré que Phi-4 se comparait favorablement à GPT-4o, ce qui signifie qu'il s'agit d'un modèle de la classe GPT-4 capable de fonctionner sur un ordinateur portable performant. La communauté a également réussi à quantifier le modèle, réduisant sa taille tout en maintenant ses performances. Par exemple, la version mlx-community/phi-4-4bit pèse 7,7 Go et peut être exécutée avec l'outil mlx-llm. Une autre option est de télécharger un fichier modèle de 9,1 Go via Ollama, le rendant accessible grâce au plugin llm-ollama. Ces développements démontrent l'accessibilité croissante des modèles de langage avancés, permettant à un plus grand nombre de personnes de les utiliser sans infrastructures informatiques coûteuses.Terminons avec une réflexion sur la documentation technique. Souvent perçue comme un ensemble de règles rigides, elle est traditionnellement centrée sur les actions des rédacteurs plutôt que sur les besoins des utilisateurs. Pour changer cette approche, un modèle de documentation en sept actions est proposé, mettant l'accent sur ce que les utilisateurs ...