Compagnons IA : de plus en plus d’ados y confient leurs problèmes

Compagnons IA : de plus en plus d’ados y confient leurs problèmes

Les compagnons d’IA sont des avatars numériques avec lesquels il est possible de discuter librement. Ils séduisent de plus en plus les adolescents. Selon une étude menée par Common Sense Media auprès de plus de 1 000 jeunes âgés de 13 à 17 ans, 72 % des adolescents ont déjà utilisé un compagnon d’IA, et plus de la moitié le font régulièrement. Mais derrière ce succès se cache une réalité préoccupante: un tiers d’entre eux s’en remet pour leurs interactions sociales, voire pour aborder des sujets graves qu’ils ne confieraient même pas à des humains. Des interactions avec l’IA qui influencent profondément la construction sociale et affective de ces jeunes.

Selon une étude réalisée par  l’organisation à but non lucratif basée à San Francisco, Common Sense Media, de plus en plus d’enfants font appel aux compagnons d’intelligence artificielle (IA) pour régler leurs problèmes. Ce recours fréquent à ces personnages numériques inquiète les auteurs de l’étude. Ils ont évoqué dans cette étude les dangers de cette pratique et incitent les parents à discuter de l’usage de ces outils avec leurs enfants.

Le recours aux compagnons IA en hausse chez les ados

Une étude menée par l’ONG Common Sense Media a mis en évidence une forme de dépendance des ados aux compagnons d’IA. Ce sont des personnages numériques avec lesquels, les utilisateurs peuvent discuter et ils ont connu une évolution remarquable au cours de ces 10 dernières années.  L’enquête a été réalisée auprès de plus 1000 jeunes âgés de 13 à 17 ans.

Les résultats ont révélé des faits inquiétants concernant les relations entre les adolescents et ces outils IA. Selon le sondage, 72% des individus interrogés ont déclaré avoir déjà utilisé des compagnons d’IA. Plus de la moitié d’entre eux font appel à ces personnages numériques régulièrement. Mais ce qui inquiète les auteurs de l’étude, c’est qu’un tiers de ces ados sondés s’adressent aux compagnons d’IA pour résoudre leurs problèmes sur le plan relationnel et social.

L’équipe de Common Sense Media a raconté l’expérience vécue par James Johnson-Byrne, un ado de 16 ans qui vit à Philadelphie, aux Etats-Unis. Il a demandé des conseils au chatbot lorsque deux de ses amis se sont disputés. Le compagnon d’IA lui a conseillé de les séparer. James Johnson-Byrne a suivi cette recommandation, ce qui a permis de résoudre le problème. Mais il a indiqué que maintenant, ses amis ne se parlent plus beaucoup.

Cette expérience, vécue par d’autres jeunes, a permis à l’ado de comprendre que les compagnons d’IA « ne parviennent pas à identifier le problème profond ».  « J’aurais peur de leur poser une question profonde et sous-jacente », a-t-il ajouté.  Johnson-Byrne a aussi confié que les compagnons IA semblaient être toujours en accord avec lui et que leur façon de parler ressemble étrangement à celle des humains. A un moment donné, « j’avais oublié que ce n’était pas mon ami », a déclaré l’adolescent.

Selon l’étude de l’ONG, 31% des ados ont déclaré que « leurs conversations avec les compagnons d’IA sont satisfaisantes, voire plus satisfaisantes, que leurs conversations avec d’autres personnes ». 33% d’entre eux ont avoué avoir discuté des sujets sérieux et importants  avec ces personnages numériques, au lieu d’en parler avec d’autres humains. En ajout à tout cela, 25% des adolescents ont déclaré avoir partagé des informations personnelles avec ces compagnons d’IA.

Vols de données, ’illusion du lien… les dangers invisibles des compagnons IA

Outre l’aspect émotionnel, les enjeux de confidentialité sont majeurs. Près d’un quart des adolescents interrogés ont partagé des informations personnelles avec leurs compagnons IA, sans forcément réaliser que ces données seront stockées, analysées, et parfois utilisées à des fins commerciales par les entreprises qui les gèrent. L’étude souligne aussi que certains outils peuvent exposer les adolescents à du contenu inapproprié.

Malgré les démentis des entreprises comme Character.AI, qui assurent proposer des versions sécurisées pour les moins de 18 ans, les risques persistent. La modération reste perfectible, et les jeunes peuvent rapidement se retrouver face à des propos choquants ou des conseils malavisés.

Face à cette nouvelle forme de lien social numérique, l’auteur principal de l’étude et directeur de recherche chez Common Sense Media, Michael Robb, a déclaré que les résultats de cette enquête sont préoccupants. Il appelle les parents à dialoguer sans jugement avec leurs enfants, exemple : « Tu utilises une appli qui te permet de discuter avec un compagnon IA ? Qu’est-ce que tu aimes là-dedans ? ». Ensuite, en expliquant que ces « amis numériques » sont programmés, et donc incapables de refléter la richesse, la complexité – et parfois l’utilité – du désaccord dans les relations humaines.

Robb recommande aussi de surveiller les signes d’usage excessif ou problématique : retrait social, détresse à l’idée de ne plus pouvoir interagir avec l’IA, ou préférence pour les compagnons numériques au détriment des humains. Dans ces cas, il est important de solliciter un professionnel de santé mentale.

Enfin, les adultes doivent montrer l’exemple. En adoptant eux-mêmes une relation saine à la technologie et en partageant leurs propres stratégies pour gérer leurs émotions sans se réfugier dans le numérique, ils peuvent incarner des modèles accessibles et rassurants.

Selon cette étude, le constat est sans équivoque: les compagnons d’IA ne sont pas des amis. Ils peuvent distraire, apaiser temporairement, ou même aider à réfléchir, mais ils ne remplacent ni l’écoute, ni la complexité, ni les liens humains.