Souvent accusé de générer des réponses racistes, antisémites et complotistes.... mais surtout après les deepfakes sexuels( à partir de photographies de personnes réelles – et parfois mineures –) , Elon Musk prône désormais une « constitution morale » pour Grok, le chatbot associé au réseau X. Sous la pression de plusieurs gouvernements et autorités de régulation, le milliardaire Musk veut vite éteindre la polémique et cède.

La déclaration d’Elon Musk selon laquelle « Grok devrait avoir une constitution morale » marque un tournant inattendu. Longtemps présentée comme une alternative plus libre - avec humour et sans filtre - aux questions des utilisateurs sur la plateforme X, l’IA de xAI se retrouve désormais au cœur d’une controverse mondiale sur ses usages et ses dérives.
La pression des États : l’étau se resserre
Grok, le chatbot d’Elon Musk, a subi de vives critiques lorsque des utilisateurs l’ont incité à générer des images de femmes et d’enfants dénudés et à les diffuser sur la toile. Ce procédé de « nudificatition » est réalisé sans le consentement des personnes concernées. La diffusion de ces images est donc une violation de la vie privée et elle a provoqué l’indignation de nombreux internautes.

L'Inde a menacé X de lui retirer son immunité juridique de « refuge » (Safe Harbor) sous 72 heures. Le Royaume-Uni, par la voix de la secrétaire d'État Liz Kendall, s'apprête à criminaliser ces créations, tandis que l'Indonésie et la Malaisie ont déjà bloqué l'accès à l'outil.
Si X a déjà déclaré que la plateforme allait prendre les mesures nécessaires afin que les utilisateurs ne puissent pas utiliser Grok pour créer ces images sexualisées, Elon Musk n’a pas encore pris les choses au sérieux. Mais récemment, il a déclaré sur X que « Grok devrait avoir une constitution morale ».
Grok should have a moral constitution
— Elon Musk (@elonmusk) January 18, 2026
Pour Musk, l'enjeu n'est pas seulement éthique, il est financier et contractuel. Maintenir Grok dans un état de liberté totale revient à s'exclure des marchés régulés et à s'exposer à des amendes qui pourraient paralyser xAI.
Récemment, Vincent Clairmont vous a proposé le Guide la crypto pour les Nuls.
Mais quelle crypto acheter cette année ? Comment ? Quand ? Quelles précautions prendre ?
Il vous propose de répondre à toutes ces questions dans le Guide opérationnel des cryptos qu'il vient de rédiger.
Pour tout nouvel abonnement à 79€ souscrit avant minuit, vous le recevrez gratuitement.
Liberté technologique contre responsabilité individuelle
Les partisans pensent que les règles et les filtres sont insuffisants et ils proposent la mise en place d’un cadre éthique plus profond. Les détracteurs pensent en revanche que l’application de cette « constitution morale » serait difficile. Le secteur technologique prévoit de bien observer les conséquences de cette « constitution » sur le comportement de l’outil d’IA.

Notons que xAI a déjà instauré des restrictions techniques empêchant Grok de générer des images sexualisées de personnes réelles. L’entreprise a décidé de limiter l’accès à la création d’images aux abonnés « Premium » payants. Le passage à un modèle payant (Premium) pour la génération d'images est une réponse de marché classique : limiter l'anonymat pour restaurer la responsabilité.

D’un point de vue libertarien, le problème n’est pas l’outil mais son usage. L’IA, comme toute technologie, amplifie les intentions humaines. Imposer une morale centralisée à la machine revient à déplacer la responsabilité de l’utilisateur vers le code, puis vers le régulateur.

La décision de xAI de restreindre certaines fonctionnalités et de réserver la génération d’images à des comptes identifiés illustre ce glissement vers un contrôle, présenté comme une garantie de sécurité.
Le virage d'Elon Musk marque la fin d'une certaine naïveté technologique. La liberté d'expression totale se heurte ici au principe de non-agression (atteinte à l'image des tiers) et, plus pragmatiquement, au mur d'airain des régulateurs. La « constitution morale » de Grok sera-t-elle un outil de protection des droits individuels ou un nouveau manuel de conformité bureaucratique ? L'avenir de l'IA se jouera dans cette nuance.




