2024 a été un véritable tournant pour l'IA générative, marquée par des avancées technologiques spectaculaires. La montée en puissance de l’open source, l'amélioration des performances des modèles et la chute drastique des coûts ont redéfini le paysage. Dans le même temps, les entreprises s’approprient ces outils avec des méthodes mieux maîtrisées plus robustes, tandis que les enjeux réglementaires, et sécuritaires ou de cybersécurité prennent une place centrale.
Quels enseignements tirer de cette année clé, et quels défis nous attendent en 2025 ?
Les performances des modèles convergent et la frontière du raisonnement s'estompe
- La domination sans partage d'OpenAI est remise en question et l’open source rivalise encore sérieusement avec les solutions propriétaires. C’est notamment grâce à une recherche open source toujours plus dynamique qui fait s’associer industrie et académique . Cependant, la transparence reste souvent limitée, à l’exception de quelques cas comme DeepSeek.
- Les modèles dépassent le simple langage et s'aventurent dans les mathématiques, la médecine, le code et d'autres domaines spécialisés. L’IA reste tout de même en retrait sur des tâches complexes (mathématiques très avancées, raisonnement visuel, planification). Pour ces tâches, de nouveaux benchmarks plus durs apparaissent car les anciens sont déjà dépassés.
- L’image, la vidéo et l’audio : la génération multimodale devient convaincante.
- Dans un même temps, la Chine domine massivement les dépôts de brevets en IA sur cette dernière décennie même si les USA dominent les modèles de pointe. Le nombre total de brevets IA explose. On pourrait donc continuer à voir progresser l’IA à une vitesse très importante sur l’année à venir.
Les méthodes évoluent et les entreprises se professionnalisent
- Avec l'extension des fenêtres de contexte des LLM combinée aux progrès des embeddings et des méthodes de retrieval, le Retrieval Augmented Generation (RAG) s'impose comme la référence pour exploiter l'IA générative en entreprise.
- La mise en place d’un monitoring des performances des solutions s’est imposée dans l’industrie pour assurer la pérennité des développements.
- L'importance critique de conduire des études de faisabilité rigoureuses et basées autant sur le besoin des utilisateurs & utilisatrices finales, que sur des aspects purement techniques et technologiques.
- La montée en puissance des rôles de Chief Knowledge Officer, permettant de structurer en profondeur l'accès et la production de connaissance d'une entreprise.
Les coûts des modèles ont chuté de façon spectaculaire
- -100x chez OpenAI, -60x chez Anthropic en un an. Cette baisse peut s'expliquer en partie par la disponibilité accrue des ressources GPU.
- La quantization permet désormais de compresser efficacement les modèles open source sans sacrifier leurs performances.
- Le fine-tuning des modèles franchit un cap avec des méthodes comme DPO et PPO, rendant l'adaptation plus efficace et mieux alignée sur les usages réels.
- La génération de données synthétiques s'impose comme un levier essentiel pour entraîner des modèles plus avancés à moindre coût. Elle a notamment permis le réentraînement efficace des modèles en CoT (Chain of Thought) sans explosion des dépenses (cf. DeepSeek).
Défi #1 Sécurité, régulation & politique
Regulation de l’IA
- La régulation de l’IA progresse, principalement en Europe, et les contraintes physiques (puissance de calcul, émissions) deviennent un facteur stratégique.
Sécurisation
- Un changement d'ambiance de la sécurité à l'accélération (i.e. AI Doomers vs AI Accelerationists) a lieu alors que les entreprises qui nous avaient précédemment mis en garde contre l'extinction imminente de l'humanité doivent augmenter leurs ventes aux entreprises et l'utilisation de leurs applications grand public.
- Les risques d’attaques sophistiquées (prompt injection en figure de proue) à long terme inquiètent de plus en plus les chercheurs.
Enjeux 2025
Coût et pérennité des modèles IA
- Passer des modèles aux produits viables, avec des interrogations sur les coûts et la pérennité.
Fiabilité et robustesse
- S’assurer que les progrès sur les benchmarks se traduisent par une valeur fiable et robuste dans le monde réel, au-delà des tâches spécifiques.
Performances et consommations énergétiques
- Concilier performances et consommation énergétique des modèles LLM pour répondre aux problématiques RSE des entreprises.
Mise en place de AI factory
- Mettre en place des AI Factory plutôt que fonctionner use case par use case de façon désorganisée : i. Améliorer la gestion de la connaissance d'une entreprise et en faire un des principaux leviers de croissance ii. Rationnaliser les initiatives éparpillées iii. Estimer systématiquement les impacts des AI products développés.
2025 s’annonce comme une année décisive : il ne s’agit plus seulement d’améliorer les modèles, mais de les transformer en solutions viables et pérennes, tout en maîtrisant leur impact environnemental et économique.
Si vous souhaitez approfondir ces sujets et structurer votre stratégie autour de l’IA générative, Eulidia, pur player Data & IA, est à votre disposition pour vous accompagner.