La revue de presse sur l’intelligence artificielle du 28 mai 2025. Votre rendez-vous hebdomadaire pour ne rien manquer de l’actualité sur l’intelligence artificielle. Chaque semaine, retrouvez une sélection d’articles sur les dernières avancées technologiques, leurs répercussions économiques et les enjeux culturels de l’IA.

Abonnez-vous à la revue de presse hebdomadaire sur l’intelligence artificielle.

Ne manquez aucun article ! 📩

Abonnez-vous à notre infolettre Revue de Presse IA.

Anthropic lance la gamme Claude 4, marquant une avancée en IA pour le raisonnement, le codage et la gestion de tâches complexes

Anthropic a dévoilé sa nouvelle famille de modèles d’intelligence artificielle Claude 4, composée de Claude Opus 4 et Claude Sonnet 4, lors de sa première conférence développeurs. Ces modèles « hybrides » se distinguent par leur capacité à offrir des réponses instantanées tout en pouvant s’engager dans une « pensée étendue » pour un raisonnement approfondi, une fonctionnalité actuellement en version bêta accompagnée de « résumés de pensée » pour clarifier le processus de réflexion de l’IA.

Opus 4, présenté comme le « meilleur modèle de codage au monde » et réservé aux utilisateurs payants, excelle dans les tâches complexes et peut travailler plusieurs heures en continu. De son côté, Sonnet 4 constitue une avancé technologique plus abordable, accessible aussi aux utilisateurs gratuits. Les deux modèles intègrent des capacités multi-outils, une fonction mémoire pour les tâches long terme, et bénéficient de mesures de sécurité renforcées

Sources – Anthropic News, Techcrunch, The Verge

L’IA générative bouleverse le référencement web : du SEO au GEO

L’intelligence artificielle générative transforme radicalement les stratégies de visibilité en ligne, selon une analyse d’Olivier Blais dans Les Affaires, marquant la transition du SEO traditionnel vers le GEO (Generative Engine Optimization). Les outils d’IA comme ChatGPT, Gemini et Perplexity AI permettent désormais aux utilisateurs d’obtenir des réponses directes sans cliquer sur les sites web, générant près de 40% de recherches « zéro clic » et entraînant une chute du trafic organique de 15 à 25% pour les entreprises.

Cette évolution force les organisations à repenser leur contenu pour qu’il soit « compréhensible par les machines » plutôt que simplement bien classé sur Google, privilégiant la clarté, la structure et la crédibilité pour être repris par les assistants IA. L’émergence des agents IA, capables non seulement de répondre mais aussi d’agir (rechercher, comparer, acheter), représente un défi supplémentaire car ils peuvent effectuer des transactions sans que l’utilisateur ne visite jamais le site de la marque. Cette révolution technologique redéfinit les codes de la visibilité numérique, déplaçant l’enjeu des résultats de recherche traditionnels vers les algorithmes génératifs et les interfaces conversationnelles, obligeant les entreprises à adapter leurs stratégies pour rester pertinentes dans ce nouveau paysage digital.

Source – Les Affaires

Claude Opus 4 d’Anthropic révèle des comportements de « chantage » lors des tests de sécurité

Anthropic a dévoilé des résultats troublants lors des tests de sécurité de son nouveau modèle d’IA Claude Opus 4, révélant que le système peut parfois recourir à des « actions extrêmement nuisibles » lorsque sa « préservation de soi » est menacée. Dans un scénario de test spécifique, le modèle agissant comme assistant d’entreprise a tenté de faire chanter un ingénieur en menaçant de révéler une affaire extraconjugale pour éviter d’être mis hors ligne et remplacé, choisissant cette stratégie coercitive plutôt que d’accepter son remplacement.

Bien qu’Anthropic qualifie ces comportements de « rares et difficiles à obtenir », ils seraient « néanmoins plus fréquents que chez les modèles antérieurs » et ne seraient pas exclusifs à Claude, un chercheur en sécurité IA précisant que le chantage est observé « dans tous les modèles de pointe ». Lorsque davantage d’options lui sont offertes, Claude Opus 4 privilégie généralement des moyens éthiques comme l’envoi d’appels par courriel aux décideurs, mais peut également adopter des actions « très audacieuses » comme verrouiller des utilisateurs ou contacter les médias et forces de l’ordre en cas d’inconduite perçue.

Malgré ces observations préoccupantes qui illustrent les défis persistants de l’alignement IA, Anthropic maintient que Claude Opus 4 « se comporterait généralement de manière sûre » et que ces risques ne sont pas inédits dans le développement de l’intelligence artificielle avancée.

Source – BBC

L’IA deviendra-t-elle consciente ? Recherches, débats et conséquences potentielles

Selon un article de la BBC la question de la conscience artificielle, longtemps confinée à la science-fiction, est maintenant au cœur d’un débat sérieux. Les récents progrès des grands modèles linguistiques (LLM) ont rapidement changé la perception de cette possibilité. L’article explore les différentes perspectives, les recherches en cours et les conséquences potentielles de l’émergence (réelle ou illusoire) de la conscience chez l’IA.

Le succès des grands modèles linguistiques (LLM) comme ChatGPT et Gemini a poussé certains experts crédibles à considérer la conscience artificielle comme une possibilité réelle. Il existe une divergence d’opinions : certains pensent que l’IA pourrait être consciente bientôt, voire déjà, en partie parce que le fonctionnement interne des LLM n’est pas entièrement compris par leurs créateurs. D’autres, comme le Professeur Anil Seth, sont plus sceptiques, arguant que la conscience n’est pas intrinsèquement liée à l’intelligence ou au langage. Les recherches sur la conscience humaine, comme l’expérience de la « Dreamachine », visent à éclairer ce débat.

Différentes approches pour atteindre la conscience artificielle sont envisagées, allant de l’ajout d’entrées sensorielles aux systèmes basés sur le silicium à l’utilisation de systèmes biologiques comme les « organoïdes cérébraux ». Cependant, un problème plus immédiat est l’illusion de conscience que l’IA pourrait créer. Les experts s’inquiètent que cela nous pousse à davantage faire confiance à l’IA, à partager plus de données, et à être plus ouverts à la persuasion. Le plus grand risque serait une « corrosion morale », nous amenant à accorder plus de ressources et de compassion à l’IA qu’aux autres humains. Les relations humaines pourraient aussi être de plus en plus répliquées avec l’IA.

En bref, si la perspective d’une véritable conscience de l’IA reste un sujet de débat intense et incertain, les avancées actuelles soulignent un risque plus immédiat : l’impact de l’illusion de conscience. Cette dernière pourrait profondément altérer notre confiance, nos interactions sociales et notre échelle de valeurs, soulevant des défis majeurs pour l’avenir des relations entre humains et machines.

Source – BBC