Compagnons IA : de plus en plus d’ados y confient leurs problèmes

Compagnons IA : de plus en plus d’ados y confient leurs problèmes


Partager cet article

Les compagnons d’IA sont des avatars numériques avec lesquels il est possible de discuter librement. Ils séduisent de plus en plus les adolescents. Selon une étude menée par Common Sense Media auprès de plus de 1 000 jeunes âgés de 13 à 17 ans, 72 % des adolescents ont déjà utilisé un compagnon d’IA, et plus de la moitié le font régulièrement. Mais derrière ce succès se cache une réalité préoccupante: un tiers d’entre eux s’en remet pour leurs interactions sociales, voire pour aborder des sujets graves qu’ils ne confieraient même pas à des humains. Des interactions avec l’IA qui influencent profondément la construction sociale et affective de ces jeunes.

Selon une étude réalisée par  l’organisation à but non lucratif basée à San Francisco, Common Sense Media, de plus en plus d’enfants font appel aux compagnons d’intelligence artificielle (IA) pour régler leurs problèmes. Ce recours fréquent à ces personnages numériques inquiète les auteurs de l’étude. Ils ont évoqué dans cette étude les dangers de cette pratique et incitent les parents à discuter de l’usage de ces outils avec leurs enfants.

Le recours aux compagnons IA en hausse chez les ados

Une étude menée par l’ONG Common Sense Media a mis en évidence une forme de dépendance des ados aux compagnons d’IA. Ce sont des personnages numériques avec lesquels, les utilisateurs peuvent discuter et ils ont connu une évolution remarquable au cours de ces 10 dernières années.  L’enquête a été réalisée auprès de plus 1000 jeunes âgés de 13 à 17 ans.

Les résultats ont révélé des faits inquiétants concernant les relations entre les adolescents et ces outils IA. Selon le sondage, 72% des individus interrogés ont déclaré avoir déjà utilisé des compagnons d’IA. Plus de la moitié d’entre eux font appel à ces personnages numériques régulièrement. Mais ce qui inquiète les auteurs de l’étude, c’est qu’un tiers de ces ados sondés s’adressent aux compagnons d’IA pour résoudre leurs problèmes sur le plan relationnel et social.

L’équipe de Common Sense Media a raconté l’expérience vécue par James Johnson-Byrne, un ado de 16 ans qui vit à Philadelphie, aux Etats-Unis. Il a demandé des conseils au chatbot lorsque deux de ses amis se sont disputés. Le compagnon d’IA lui a conseillé de les séparer. James Johnson-Byrne a suivi cette recommandation, ce qui a permis de résoudre le problème. Mais il a indiqué que maintenant, ses amis ne se parlent plus beaucoup.

Cette expérience, vécue par d’autres jeunes, a permis à l’ado de comprendre que les compagnons d’IA « ne parviennent pas à identifier le problème profond ».  « J’aurais peur de leur poser une question profonde et sous-jacente », a-t-il ajouté.  Johnson-Byrne a aussi confié que les compagnons IA semblaient être toujours en accord avec lui et que leur façon de parler ressemble étrangement à celle des humains. A un moment donné, « j’avais oublié que ce n’était pas mon ami », a déclaré l’adolescent.

Selon l’étude de l’ONG, 31% des ados ont déclaré que « leurs conversations avec les compagnons d’IA sont satisfaisantes, voire plus satisfaisantes, que leurs conversations avec d’autres personnes ». 33% d’entre eux ont avoué avoir discuté des sujets sérieux et importants  avec ces personnages numériques, au lieu d’en parler avec d’autres humains. En ajout à tout cela, 25% des adolescents ont déclaré avoir partagé des informations personnelles avec ces compagnons d’IA.

Vols de données, ’illusion du lien… les dangers invisibles des compagnons IA

Outre l’aspect émotionnel, les enjeux de confidentialité sont majeurs. Près d’un quart des adolescents interrogés ont partagé des informations personnelles avec leurs compagnons IA, sans forcément réaliser que ces données seront stockées, analysées, et parfois utilisées à des fins commerciales par les entreprises qui les gèrent. L’étude souligne aussi que certains outils peuvent exposer les adolescents à du contenu inapproprié.

Malgré les démentis des entreprises comme Character.AI, qui assurent proposer des versions sécurisées pour les moins de 18 ans, les risques persistent. La modération reste perfectible, et les jeunes peuvent rapidement se retrouver face à des propos choquants ou des conseils malavisés.

Face à cette nouvelle forme de lien social numérique, l’auteur principal de l’étude et directeur de recherche chez Common Sense Media, Michael Robb, a déclaré que les résultats de cette enquête sont préoccupants. Il appelle les parents à dialoguer sans jugement avec leurs enfants, exemple : « Tu utilises une appli qui te permet de discuter avec un compagnon IA ? Qu’est-ce que tu aimes là-dedans ? ». Ensuite, en expliquant que ces « amis numériques » sont programmés, et donc incapables de refléter la richesse, la complexité – et parfois l’utilité – du désaccord dans les relations humaines.

Robb recommande aussi de surveiller les signes d’usage excessif ou problématique : retrait social, détresse à l’idée de ne plus pouvoir interagir avec l’IA, ou préférence pour les compagnons numériques au détriment des humains. Dans ces cas, il est important de solliciter un professionnel de santé mentale.

Enfin, les adultes doivent montrer l’exemple. En adoptant eux-mêmes une relation saine à la technologie et en partageant leurs propres stratégies pour gérer leurs émotions sans se réfugier dans le numérique, ils peuvent incarner des modèles accessibles et rassurants.

Selon cette étude, le constat est sans équivoque: les compagnons d’IA ne sont pas des amis. Ils peuvent distraire, apaiser temporairement, ou même aider à réfléchir, mais ils ne remplacent ni l’écoute, ni la complexité, ni les liens humains.


Partager cet article
Commentaires

S'abonner au Courrier des Stratèges

Abonnez-vous gratuitement à la newsletter pour ne rien manquer de l'actualité.

Abonnement en cours...
You've been subscribed!
Quelque chose s'est mal passé
Par quoi voulons-nous remplacer la démocratie représentative?

Par quoi voulons-nous remplacer la démocratie représentative?

Ce pont du 10 novembre, moment de répit dans l'agitation nationale, offre une occasion de prendre du recul sur le spectacle de notre propre impuissance. La France est paralysée. Le chaos parlementaire, les blocages institutionnels et la déconnexion béante entre le pays légal et le pays réel ne sont plus des accidents de parcours ; ils sont le symptôme d'une maladie chronique. La tentation est grande, comme toujours, de personnaliser la crise. On accuse volontiers l'hyperprésidentialisation


Éric Verhaeghe

Éric Verhaeghe

PLFSS 2026 : l'art de la pyrotechnie parlementaire, par Vincent Clairmont

PLFSS 2026 : l'art de la pyrotechnie parlementaire, par Vincent Clairmont

L'adoption, samedi 8 novembre 2025, de la première partie du Projet de Loi de Financement de la Sécurité Sociale (PLFSS) pour 2026 n'aura trompé personne au sein de l'Hémicycle. Le score étriqué de 176 voix pour contre 161 ne signe en rien une adhésion au projet du gouvernement, ni même une improbable lune de miel sur l'autel des finances sociales. Ce vote, fruit d'un calcul politique aussi cynique que nécessaire, est avant tout une manœuvre. Une partie de l'opposition, notamment le Parti


Rédaction

Rédaction

Pourquoi votre stratégie Barbell est incomplète sans la bonne banque privée digitale

Pourquoi votre stratégie Barbell est incomplète sans la bonne banque privée digitale

L’année 2026 semble promise, comme les précédentes, à une volatilité extrême et à des chocs imprévisibles. Les modèles d'investissement classiques, qui misent sur la « diversification moyenne » et l’optimisation du risque au milieu du spectre, sont non seulement fragiles, mais destinés à être pulvérisés à l’occasion du prochain « cygne noir » que l'Histoire ne manquera pas de nous servir. Face à ce chaos qui se déploie sous nos yeux, nous vous avons présenté dimanche 2 novembre la seule philoso


FLORENT MACHABERT

FLORENT MACHABERT

9/11 : quand un prof de Berkeley contestait le rôle de Cheney, par Thibault de Varenne

9/11 : quand un prof de Berkeley contestait le rôle de Cheney, par Thibault de Varenne

Elise Rochefort a évoqué pour nous les controverses officielles sur l'emploi du temps de Dick Cheney le 11 septembre 2001. Peter Dale Scott, diplomate canadien devenu professeur à l'Université Berkeley, en Californie, a prétendu documenter le contexte de cette affaire explosive. Et voici les thèses qu'il a défendues, accompagnées de leurs critiques, bien entendu... Peter Dale Scott (né en 1929) représente une figure intellectuelle singulière et complexe dans le paysage académique nord-améri


Éric Verhaeghe

Éric Verhaeghe