La semaine écoulée a été particulièrement chargée en actualités concernant l’IA, thanks to OpenAI, avec un billet de blog controversé du PDG Sam Altman, le déploiement large du Mode Voix Avancé, des rumeurs sur des centres de données 5GW, d’importants bouleversements au sein de l’équipe et des plans de restructuration dramatiques.
Cependant, le reste du monde de l’IA ne suit pas le même rythme, poursuivant son propre chemin et produisant de nouveaux modèles et recherches en un éclair. Voici un récapitulatif de quelques actualités notables sur l’IA de la semaine passée.
Mises à jour de Google Gemini
Le mardi, Google a annoncé des mises à jour concernant sa gamme de modèles Gemini, y compris la sortie de deux nouveaux modèles prêts à la production : Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002. L’entreprise a signalé des améliorations de la qualité globale, avec des progrès notables dans le domaine des mathématiques, la gestion de longs contextes et les tâches de vision. Google revendique une augmentation de 7 % de performance sur le benchmark MMLU-Pro et une amélioration de 20 % pour les tâches liées aux mathématiques. Cependant, comme vous le savez, si vous suivez LesNews depuis un certain temps, les benchmarks en IA ne sont généralement pas aussi utiles qu’on le souhaiterait.
En plus des mises à jour des modèles, Google a introduit des réductions de prix substantielles pour Gemini 1.5 Pro, réduisant les coûts des tokens d’entrée de 64 % et ceux des tokens de sortie de 52 % pour les prompts de moins de 128 000 tokens. Comme l’a noté le chercheur en IA Simon Willison dans son blog, “Pour comparer, GPT-4o est actuellement à 5 $ / million de tokens d’entrée et 15 $ / million de sortie et Claude 3.5 Sonnet est à 3 $ / million d’entrée et 15 $ / million de sortie. Gemini 1.5 Pro était déjà le modèle le moins cher dans sa catégorie et il est maintenant encore moins cher.”
Google a également augmenté les limites de taux, avec Gemini 1.5 Flash prenant désormais en charge 2 000 requêtes par minute et Gemini 1.5 Pro gérant 1 000 requêtes par minute. Google rapporte que les derniers modèles offrent une vitesse de sortie deux fois supérieure et une latence trois fois plus basse par rapport aux versions précédentes. Ces changements pourraient faciliter et rendre plus rentable pour les développeurs la création d’applications utilisant Gemini.
Meta lance Llama 3.2
Mercredi, Meta a annoncé la sortie de Llama 3.2, une mise à jour significative de sa gamme de modèles d’IA à poids ouverts, que nous avons largement couverte par le passé. La nouvelle version inclut des modèles de langage de grande taille (LLMs) capables de vision avec des tailles de 11 milliards et 90 milliards de paramètres, ainsi que des modèles légers uniquement textuels de 1 milliard et 3 milliards de paramètres conçus pour des appareils mobiles et edge. Meta affirme que les modèles de vision sont compétitifs avec les modèles fermés de premier plan en matière de reconnaissance d’images et de compréhension visuelle, tandis que les modèles plus petits surpassent les concurrents de taille similaire dans diverses tâches basées sur le texte.
Willison a fait des expériences avec certains des plus petits modèles 3.2 et a rapporté des résultats impressionnants pour la taille de ces modèles. Le chercheur en IA Ethan Mollick a démontré l’utilisation de Llama 3.2 sur son iPhone via une application appelée PocketPal.
Meta a également introduit les premières distributions officielles de “Llama Stack“, créées pour simplifier le développement et le déploiement à travers différents environnements. Comme pour les versions précédentes, Meta rend les modèles disponibles en téléchargement gratuit, avec des restrictions de licence. Les nouveaux modèles supportent des fenêtres de contexte long allant jusqu’à 128 000 tokens.
L’IA AlphaChip de Google accélère la conception de puces
Jeudi, Google DeepMind a annoncé ce qui semble être une avancée significative dans la conception de circuits électroniques pilotée par IA, AlphaChip. Cela a commencé comme un projet de recherche en 2020 et est maintenant une méthode d’apprentissage par renforcement pour concevoir des dispositions de puces. Google aurait utilisé AlphaChip pour créer des “dispositions de puces surhumaines” au cours des trois dernières générations de ses Unités de Traitement Tensoriel (TPU), qui sont des puces similaires aux GPU conçues pour accélérer les opérations d’IA. Google affirme qu’AlphaChip peut générer des dispositions de haute qualité en quelques heures, contre des semaines ou des mois d’efforts humains. (Il a été rapporté que Nvidia a également utilisé l’IA pour aider à la conception de ses puces.)
Il est particulièrement à noter que Google a également publié un point de contrôle pré-entraîné d’AlphaChip sur GitHub, partageant les poids du modèle avec le public. L’entreprise a rapporté que l’impact d’AlphaChip a déjà dépassé le cadre de Google, avec des entreprises de conception de puces telles que MediaTek adaptant et utilisant cette technologie pour leurs puces. Selon Google, AlphaChip a suscité une nouvelle ligne de recherche sur l’IA pour la conception de puces, optimisant potentiellement chaque étape du cycle de conception des circuits, de l’architecture informatique à la fabrication.
Ce n’est pas tout ce qui s’est passé cette semaine, mais ce sont quelques faits marquants. Avec l’industrie de l’IA qui ne montre aucun signe de ralentissement pour le moment, il sera intéressant de voir comment se déroulera la semaine prochaine.
En tant que journaliste, je suis également frappé par l’ampleur et la rapidité des développements dans le domaine de l’IA. Chaque jour semble apporter son lot d’innovations, et il est fascinant de voir comment ces technologies peuvent transformer nos vies et nos métiers. Je suis impatient de suivre ces évolutions et d’en rendre compte.