Anthropic revient sur le devant de la scène avec deux nouveaux modèles d’intelligence artificielle qui entendent repousser les limites du codage, du raisonnement… et de l’endurance logicielle.
Une IA qui tient la distance
Dans l’univers effervescent de l’IA générative, rares sont les modèles capables de conjuguer puissance brute et stabilité sur la durée. Claude Opus 4, le dernier-né d’Anthropic, semble cocher toutes les cases. Présenté comme le modèle « premium » de la gamme, il se distingue non seulement par ses performances de haut vol, mais aussi par sa capacité à rester opérationnel pendant plusieurs heures sur des projets complexes. Un bond significatif, surtout quand on sait que la plupart des IA du marché peinent à maintenir une telle charge plus d’une heure.
Rakuten, qui a eu accès au modèle en avant-première, évoque une autonomie de sept heures sans défaillance sur un projet open source de grande ampleur. Une prouesse qui confirme le virage technique amorcé par Anthropic, avec un accent mis sur la constance et la précision.
Sonnet 4 : plus rapide, plus obéissant
Dans l’ombre d’Opus 4, Sonnet 4 n’est pas en reste. Successeur du modèle 3.7, il mise sur la vitesse d’exécution et une meilleure compréhension des instructions. Pensé pour des usages plus ciblés, notamment dans le codage et les tâches de raisonnement systématique, il promet un alignement plus fin entre intention et exécution, un point souvent critiqué sur les modèles concurrents.
Un cerveau qui raisonne (vraiment)
Ce qui impressionne le plus chez ces deux modèles, ce n’est pas uniquement leur capacité à traiter des lignes de code à la chaîne ou à générer des textes soignés. C’est leur faculté à raisonner, à enchaîner des étapes complexes sans perdre le fil.
Yusuke Kaji, du groupe Rakuten, témoigne d’un modèle capable de rester « focus » des heures durant. Une stabilité renforcée par une nouvelle approche de gestion de la mémoire, qui réduit drastiquement la dépendance à la fenêtre de contexte. Autrement dit : moins besoin de tout réexpliquer à chaque étape, une aubaine pour les développeurs et les professionnels de l’automatisation.
Une sécurité renforcée en coulisses
Anthropic semble aussi avoir appris de ses erreurs passées. Les modèles Claude Opus 4 et Sonnet 4 ont été reprogrammés pour mieux résister aux manipulations, notamment les fameuses tentatives de « reward hacking ». D’après Alex Albert, responsable des relations développeurs, ces contournements ont été réduits de près de 80 %.
Cette avancée technique traduit une volonté claire : offrir des IA plus fiables, moins sujettes aux dérapages, et mieux alignées avec les attentes éthiques croissantes du secteur.
Un écosystème d’outils à la rescousse
Pour accompagner ces nouveautés, Anthropic ne s’est pas contenté de sortir de nouveaux modèles. La société a aussi lancé Claude Code, un environnement pensé pour le développement, incluant l’exécution de code et des connecteurs API.
Objectif affiché : rendre les IA plus utiles et malléables, en les intégrant directement dans les workflows numériques. Ces outils visent à simplifier les processus, tout en offrant des capacités avancées à ceux qui veulent aller plus loin.
Des benchmarks prometteurs… à manier avec recul
Du côté des performances, les premiers benchmarks, notamment le SWE-bench, placent Opus 4 et Sonnet 4 devant plusieurs modèles concurrents. Mais Anthropic garde la tête froide. Comme l’ont rappelé les équipes lors du lancement, les tests standards ne remplacent pas les usages concrets, et seul le retour du terrain permettra de juger pleinement l’efficacité des modèles.
Ce feedback utilisateur, moins quantifiable mais souvent plus révélateur, jouera donc un rôle central dans les ajustements à venir.