Cette semaine a été extrêmement chargée en actualités concernant l’IA, en grande partie grâce à OpenAI, avec un article de blog controversé de son PDG Sam Altman, le déploiement généralisé du mode vocal avancé, des rumeurs sur un nouveau centre de données 5GW, d’importants changements de personnel et des plans de restructuration spectaculaires.

Cependant, le reste du monde de l’IA ne suit pas le même rythme, se concentrant sur ses propres développements et produisant de nouveaux modèles et recherches à un rythme effréné. Voici un résumé des autres actualités notables concernant l’IA au cours de la semaine écoulée.

Mises à jour de Google Gemini


Le logo de Gemini 1.5

Ce mardi, Google a annoncé des mises à jour de sa gamme de modèles Gemini, notamment la sortie de deux nouveaux modèles prêts pour la production : Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002. L’entreprise a signalé des améliorations de la qualité générale, avec des gains notables en mathématiques, en gestion de long contexte et dans les tâches de vision. Google a déclaré une augmentation de 7 % des performances sur le benchmark MMLU-Pro et une amélioration de 20 % dans les tâches mathématiques. Cependant, comme vous le savez si vous lisez LesNews depuis un certain temps, les benchmarks en IA ne sont pas aussi utiles que nous le souhaiterions.

En plus des mises à jour de modèles, Google a introduit des réductions de prix significatives pour Gemini 1.5 Pro, diminuant les coûts des tokens d’entrée de 64 % et les coûts des tokens de sortie de 52 % pour les requêtes de moins de 128 000 tokens. Comme l’a noté le chercheur en IA Simon Willison sur son blog, “Pour comparaison, GPT-4o coûte actuellement 5 $/million de tokens en entrée et 15 $/m en sortie, et Claude 3.5 Sonnet coûte 3 $/m en entrée et 15 $/m en sortie. Gemini 1.5 Pro était déjà le moins cher des modèles de pointe et maintenant il est encore moins cher.”

Google a également augmenté les limites de débit, Gemini 1.5 Flash prenant désormais en charge 2 000 requêtes par minute et Gemini 1.5 Pro traitant 1 000 requêtes par minute. Google rapporte que les derniers modèles offrent une vitesse de sortie deux fois plus rapide et une latence trois fois inférieure par rapport aux versions précédentes. Ces changements pourraient faciliter et rendre plus rentables pour les développeurs la création d’applications avec Gemini qu’auparavant.

Meta lance Llama 3.2


Graphique promotionnel de Llama 3.2

Mercredi, Meta a annoncé la sortie de Llama 3.2, une mise à jour significative de sa gamme de modèles d’IA à poids ouverts dont nous avons longuement parlé par le passé. La nouvelle version inclut des modèles de langage de grande taille capables de vision, avec des tailles de 11 milliards et 90 milliards de paramètres, ainsi que des modèles légers uniquement textuels de 1 milliard et 3 milliards de paramètres conçus pour les appareils mobiles et en périphérie. Meta affirme que les modèles de vision sont compétitifs par rapport aux modèles propriétaires leaders en matière de reconnaissance d’image et de compréhension visuelle, tandis que les modèles plus petits seraient supérieurs à des concurrents de taille similaire dans diverses tâches basées sur le texte.

Pour conclure, en tant que journaliste passionné par l’évolution rapide de l’IA, je suis constamment impressionné par la manière dont ces mises à jour et innovations façonnent notre quotidien. L’avenir semble prometteur, et je suis impatient de suivre ces développements pour vous en rapporter les implications concrètes sur nos vies.

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *