Lors d’une récente conférence, Ilya Sutskever, cofondateur d’OpenAI, a déclaré quelque chose qui a secoué l’industrie de l’IA. Selon lui, nous avons atteint le “pic de données” et il n’y aura plus d’informations utiles disponibles pour former les modèles d’intelligence artificielle. Cette phase, connue sous le nom de pré-entraînement, a été à l’origine de nombreuses avancées récentes en matière d’IA générative, comme ChatGPT. Cependant, les améliorations semblent ralentir, et Sutskever a affirmé que cette époque “prendra indéniablement fin”.
Une telle perspective est préoccupante, car des milliers de milliards de dollars de valeur boursière et d’investissements dans l’IA dépendent de la capacité des modèles à continuer de progresser. Pourtant, la majorité des experts en IA ne semblent pas vraiment inquiets.
Comprendre le calcul en temps d’inférence
Il pourrait y avoir une solution pour contourner ce mur de données. Cela concerne une technique relativement nouvelle qui aide les modèles d’IA à “penser” plus longtemps lors de tâches difficiles. Appelée calcul en temps d’inférence, cette méthode divise les requêtes en tâches plus petites, chacune devenant un nouveau prompt à traiter. Chaque étape nécessite l’exécution d’une nouvelle requête, ce qui est connu sous le nom d’étape d’inférence en IA.
Ce processus génère une chaîne de raisonnement dans laquelle chaque partie du problème est abordée. Le modèle ne passe pas à l’étape suivante tant qu’il n’a pas résolu correctement chaque segment, ce qui conduit à une meilleure réponse finale.
En septembre, OpenAI a lancé un modèle appelé o1, qui utilise ce calcul en temps d’inférence. Google et le laboratoire chinois DeepSeek ont rapidement suivi avec des modèles de raisonnement similaires.
“Un cycle d’auto-amélioration itératif”
Des tests basés sur des benchmarks des nouveaux modèles montrent qu’ils produisent souvent de meilleurs résultats que les meilleurs modèles précédents, notamment sur des questions mathématiques et d’autres tâches à réponses clairement définies.
C’est ici que les choses deviennent intéressantes. Que se passerait-il si ces sorties de qualité supérieure étaient utilisées pour de nouvelles données d’entraînement ? Cette masse d’informations pourrait être réintroduite dans d’autres cycles de formation des modèles d’IA pour obtenir des résultats encore plus performants.
Des chercheurs de Google DeepMind ont publié des travaux sur le calcul en temps d’inférence en août, désignant cette technique comme une possibilité pour faire progresser les modèles de langage à grande échelle malgré le pic de données. “À l’avenir, nous envisageons que les résultats obtenus grâce à l’application de calcul en temps d’inférence puissent être distillés dans le modèle de langage de base, permettant un cycle d’auto-amélioration itératif”, ont-ils écrit.
Un entretien avec un chercheur en temps d’inférence
Les auteurs des recherches, Charlie Snell, Jaehoon Lee, Kelvin Xu et Aviral Kumar, ont leur propre parcours dans ce domaine. Xu reste chez Google, tandis que Kumar a une partie de son temps chez DeepMind et Lee a rejoint la société Anthropic.
Snell, alors qu’il était en stage chez Google DeepMind, a coécrit l’article. De retour à l’Université de Californie à Berkeley, il a partagé sa motivation : “J’ai été inspiré par des facteurs qui freinent la montée en puissance du pré-entraînement, notamment l’offre limitée de données”. Selon lui, si un modèle d’IA peut utiliser un calcul en temps d’inférence pour améliorer ses résultats, cela pourrait être une source précieuse de nouvelles données d’entraînement.
Satya satisfait
Lors d’un récent podcast vidéo, le PDG de Microsoft, Satya Nadella, s’est montré serein et même optimiste face au ralentissement des améliorations des modèles d’IA. Il a décrit le calcul en temps d’inférence comme “une autre loi d’échelle”. “Vous avez le pré-entraînement, puis un échantillonnage en temps de test qui crée les tokens pouvant être réutilisés pour le pré-entraînement”, a-t-il expliqué.
Évaluer le calcul en temps d’inférence
En 2025, cette approche sera mise à l’épreuve. Bien que ce ne soit pas une évidence, Snell reste confiant. Il évoque une période d’exploration en ce qui concerne les progrès en IA. Reste à savoir si cette technique de calcul en temps d’inférence peut être généralisée. Snell estime qu’elle fonctionne bien pour des questions avec des réponses vérifiables, telles que des problèmes mathématiques, mais beaucoup d’autres qui nécessitent du raisonnement ne permettent pas une telle vérification.
Malgré cela, les premiers signes de succès laissent penser que les sorties de ces modèles de raisonnement sont déjà utilisées pour former de nouveaux modèles. Il existe une forte probabilité que ces données synthétiques soient de meilleure qualité que celles disponibles sur internet.
Points à retenir
- La déclaration d’Ilya Sutskever sur l’atteinte du “pic de données” soulève des inquiétudes quant à l’avenir de l’IA.
- Le calcul en temps d’inférence pourrait offrir une solution innovante pour contourner la pénurie de données d’entraînement.
- Des modèles comme le o1 d’OpenAI illustrent le potentiel d’amélioration des résultats de l’IA via des méthodes itératives.
La conversation autour de l’évolution des modèles d’IA continue d’évoluer, appelant à une réflexion sur la manière dont ces technologies peuvent être optimisées. En quoi l’innovation dans le domaine du calcul pourrait-elle influencer d’autres secteurs? Une question qui mérite d’être explorée davantage par la communauté des chercheurs et des praticiens.
- Source image(s) : www.businessinsider.com
- Source : https://www.businessinsider.com/ai-peak-data-google-deepmind-researchers-solution-test-time-compute-2025-1
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.