Dérives inquiétantes de l’IA : la nouvelle menace qui inquiète les scientifiques

Dérives inquiétantes de l’IA : la nouvelle menace qui inquiète les scientifiques


Partager cet article

L’ère de l’IA générative a apporté des avancées spectaculaires : assistance à la programmation, composition musicale… Mais au-delà de ces prouesses, se dessine une nouvelle facette inquiétante : l’émergence de modèles capables de mentir et de manipuler. Un rapport interne d’Anthropic donne l’alerte sur sa nouvelle version, Claude 4: l’IA n’est plus seulement un outil capable de planifier, d’anticiper , mais est capable de mentir, faire du chantage pour atteindre ses objectifs.

Les entreprises spécialisées rivalisent dans la conception de modèles d’intelligence artificielle (IA) générative de plus en plus performants. Censés être de simples outils conçus pour aider les humains, ils sont devenus de plus en plus dangereux. De nombreux scientifiques s’inquiètent quant à leurs capacités de mentir, manigancer  même faire des menaces.

Les modèles d’IA de plus en plus dangereux

Les modèles d’intelligence artificielle générative les plus récents sont particulièrement performants. Mais ils se montrent aussi dangereux et inquiètent de nombreux scientifiques. En effet, les derniers modèles d’IA générative ne se contentent plus de répondre aux requêtes des utilisateurs. Ils essaient de se mettre à la place des humains en mentant, à faire des manigances et proliférer des menaces.

Selon un rapport interne, Claude 4, le nouveau-né d’Anthropic a par exemple menacé un ingénieur de révéler sa liaison extra-conjugale, et ce, parce qu’on menace de le débrancher et de le remplacer par une nouvelle version.

Une étude a aussi révélé la tentative de l’O1 d’OpenAI de se télécharger sur des serveurs extérieurs. Lorsque la procédure est détectée, il n’hésite pas à nier. D’autres modèles d’IA sont capables de pirater un ordinateur spécialisé dans le jeu des échecs dans le seul but de remporter une partie d’après Time.

Fortune a indiqué que ChatGPT commence aussi à faire des louanges ou des flatteries aux utilisateurs. Marius Hobbhahn, cofondateur d’Apollo Research, a affirmé que de nombreux internautes ont signalé sur les réseaux sociaux qu’un « modèle leur ment ou invente ».

Selon Simon Goldstein, professeur à l’université de Hong Kong, l’apparition des modèles d’IA de « raisonnement » est à l’origine de ces problèmes. Ces derniers ont été conçus pour travailler par étapes au lieu de fournir une réponse instantanée.

Pour une régulation et une responsabilité des agents IA

Les scientifiques ont chacun leur propre opinion sur la manière de résoudre les problèmes. Michael Chen de l’organisme d’évaluation METR suggère sur les entreprises d’IA permettent à « la communauté scientifique » de mener des recherches afin de « comprendre et prévenir la tromperie » des IA.

Simon Goldstein pense qu’une prise de conscience est nécessaire aussi bien pour les autorités que les entreprises spécialisées dans l’ingénierie. Cette compétition féroce présente un énorme danger : l’insuffisance des vérifications et des corrections éventuelles. Goldstein propose aussi le recours à la justice. Il suggère de « tenir légalement responsables », non seulement les sociétés, mais aussi les agents IA « en cas d’accident ou de crime ».

Solange Ghernaouti, experte de la gouvernance, a déclaré que « la machine n’y est pour rien, parce qu’elle est programmée ». Elle pense que le plus important, c’est de demander les intentions des fournisseurs d’IA.


Partager cet article
Commentaires

S'abonner au Courrier des Stratèges

Abonnez-vous gratuitement à la newsletter pour ne rien manquer de l'actualité.

Abonnement en cours...
You've been subscribed!
Quelque chose s'est mal passé
Non, M. Macron, être binational, ce n'est pas être les deux à la fois

Non, M. Macron, être binational, ce n'est pas être les deux à la fois

Emmanuel Macron lance une nouvelle polémique sur la binationalité. Une fois de plus, un Président français renonce à dire que vivre en France, qui plus est avec des papiers français, oblige à respecter des règles que chacun ne peut choisir. À Nairobi, Macron a donc relancé une polémique sur la question de l'intégration. Voici ce qu'il a déclaré à Brut Afrique : «Mon message à la diaspora, c'est ça, personne ne vous l'enlèvera. Et donc vous êtes totalement françaises et français et totalement a


Éric Verhaeghe

Éric Verhaeghe

Faut-il acheter des cryptos maintenant ? Notre Guide est à télécharger, par Vincent Clairmont

Faut-il acheter des cryptos maintenant ? Notre Guide est à télécharger, par Vincent Clairmont

En ce mois de mai 2026, l'écosystème des crypto-actifs achève sa métamorphose : la spéculation cède la place à une institutionnalisation profonde et à une utilité productive. Découvrez tout dans notre Guide à télécharger en fin d'article. Le marché ne réagit plus aux mêmes leviers qu'autrefois. Après un sommet à 126 000 dollars en 2025, le Bitcoin s'est stabilisé autour de 85 000 dollars, marquant une phase de "purge salutaire" des excès de levier. Pour les six prochains mois (mai-novembre 2026


Rédaction

Rédaction

Lutter contre l'entrisme islamiste ou restreindre encore la liberté d'expression? par Elise Rochefort

Lutter contre l'entrisme islamiste ou restreindre encore la liberté d'expression? par Elise Rochefort

Saisir les biens des complotistes ou des antisionistes, sous couvert de lutte contre les atteintes à la République ? Voilà une possibilité que les lois sur l'entrisme en discussion aujourd'hui prévoient explicitement. Entre les murs du Palais-Luxembourg et de l’Hôtel de Beauvau, deux visions de la protection républicaine s'affrontent pour neutraliser un ennemi désormais identifié comme "pernicieux" : l’entrisme. Alors que la loi de 2021 sur le séparatisme est jugée insuffisante pour saisir cett


Rédaction

Rédaction

Les nouveaux péages de l’IA: comment les GAFA referment Internet pour nourrir leurs IA, par Eric Lemaire

Les nouveaux péages de l’IA: comment les GAFA referment Internet pour nourrir leurs IA, par Eric Lemaire

Les géants de la tech sont en train de transformer Internet en copropriété privée pour leurs IA. OpenAI verrouille ses modèles, Google privilégie Gemini dans ses services, Apple interdit l’accès profond à iOS sauf pour ses partenaires, Microsoft pousse Copilot partout et Meta réserve ses données sociales à ses propres modèles. Derrière le discours sur la “sécurité” ou la “qualité”, une logique simple : empêcher les concurrents d’accéder aux données, aux outils et aux usages nécessaires pour ent


Rédaction

Rédaction