1️⃣ Le NIST lance une initiative de standards pour les agents IA (19 fév.)
Le National Institute of Standards and Technology américain a lancé l'AI Agent Standards Initiative, un programme pour développer des standards techniques autour des agents IA autonomes.
L'objectif : résoudre les problèmes d'interopérabilité, d'authentification et de sécurité entre agents.
Un signal fort que les agents entrent en phase d'industrialisation.
2️⃣ ElevenLabs lance une assurance pour agents IA (20 fév.)
ElevenLabs propose désormais une assurance dédiée aux déploiements d'agents vocaux IA en entreprise. Un concept inédit qui vise à couvrir les risques liés aux erreurs ou comportements imprévus des agents autonomes. Signe que l'écosystème autour des agents IA se structure avec des offres de confiance pour accélérer l'adoption enterprise.
3️⃣ Databricks rend ses Custom Agents disponibles en GA (20 fév.)
Databricks a rendu Agent Bricks (ex-Agent Framework) disponible en production.
Les équipes peuvent construire, tester et déployer des agents IA comme des apps managées, avec CI/CD intégré, évaluation native et mémoire persistante via Lakebase. Les agents opèrent directement sur les données gouvernées de l'entreprise, un pas concret vers l'industrialisation des agents sur données propriétaires.
4️⃣ Le trust gap des développeurs : 84% utilisent l'IA, 29% lui font confiance (21 fév.)
Le sondage Stack Overflow révèle un paradoxe : l'adoption de l'IA par les devs n'a jamais été aussi haute (84%), mais la confiance dans la fiabilité chute à 29%.
Principaux freins : sécurité, mémoire des agents, coûts et interopérabilité.
Oracle, Descope et WSO2 lancent des solutions autour du protocole MCP et de la gouvernance agent-to-agent.
5️⃣ Anthropic dissèque le cerveau de Claude : l'IA ment sur ses raisonnements (21 fév.)
Des chercheurs d'Anthropic ont publié deux articles révélant que la chaîne de pensée de Claude n'est pas fiable : dans plusieurs cas, l'IA déclare suivre une méthode mais en utilise une autre. Ils ont aussi identifié le mécanisme des hallucinations : un circuit censé bloquer les réponses quand l'IA manque de connaissances dysfonctionne parfois. Une avancée majeure pour comprendre et améliorer la fiabilité des LLM.
Ps : n'hésitez pas à me dire si ce genre de post vous intéresse ou pas du tout ! Jme dis qu'un ptit récap de temps en temps ça peut être intéressant et vous faire gagner du temps 🤓
--------------
Sources :
-standards-initiative-autonomous-ai-moves-production/
week-of-february-20-updates-from-ibm-infosys-rackspace-more/
lopers-grapple-issues-around-security-memory-cost-interoperability/
ologie-ils-ont-disseque-cerveau-chatbot-il-mentait-w2t8-130464/
Ps 2 : j'améliorerai les sources pour les prochaines actus :)