C’est un peu comme si, après des mois de conversations passionnantes avec un ami qui vous comprend vraiment, ce dernier s’arrêtait soudainement au milieu d’une phrase pour vous vanter les mérites d’une marque de baskets. C’est ce sentiment de malaise, ce petit pincement au cœur face à une confiance brisée, que Zoë Hitzig, anciennement chercheuse à OpenAI, explore dans cette tribune publiée dans le New York Times. Elle explique les raisons, et elles sont nombreuses, de son départ d’OpenAI, afin de rendre le débat public.
Alors que dit-elle ? Imaginez un instant que votre journal intime commence à vous répondre, mais qu’il le fasse avec une arrière-pensée commerciale. Jusqu’ici, nous avons vécu une sorte de « lune de miel » avec l’intelligence artificielle : un espace presque pur, où l’on cherchait la connaissance, l’inspiration ou simplement un peu d’aide pour rédiger un mail difficile. C’était l’époque de la curiosité partagée. Mais avec l’annonce de l’arrivée de la publicité dans ChatGPT, le rideau tombe. Zoë Hitzig, qui a vu l’envers du décor chez OpenAI en tant que chercheuse en sécurité, ne nous parle pas seulement de « business model ». Elle nous parle d’une rupture de contrat moral.
A retenir :
La tribune d’une ancienne chercheuse chez OpenAI, remettant en cause la confiance que l’on peut avoir face à l’IA, qui demain nous revendra nos peurs, nos joies comme nos désirs.
Le viol de « l’intimité numérique »
C’est sans doute le point le plus humain de son analyse car Zoë Hitzig nous rappelle que les utilisateurs ne traitent pas ChatGPT comme n’importe quelle autre intelligence artificielle ou comme un simple moteur de recherche, mais bien comme un véritable confident. Dans l’intimité de leurs écrans, ils vont lui confier leurs angoisses de santé les plus sourdes, leurs échecs amoureux les plus cuisants ou leurs doutes professionnels les plus profonds. L’enjeu ici est majeur puisqu’en introduisant la publicité, OpenAI transforme ce jardin secret en une mine de données précieuses pour les publicitaires. Hitzig souligne ainsi un paradoxe frappant : plus l’IA se montre performante pour comprendre et soutenir, plus elle se transforme en une arme redoutable de manipulation psychologique dès lors qu’elle est mise au service d’intérêts commerciaux.
La psychologie de la trahison numérique : quand l’ami devient vendeur
Ce viol de l’intimité n’est pas seulement une affaire de données techniques, c’est avant tout un choc psychologique profond qui repose sur ce que l’on appelle la dissonance relationnelle. Comme nous avons été encouragés à voir l’IA comme un prolongement de notre propre pensée, l’introduction de la publicité dans cet espace est vécue comme une intrusion violente, semblable au sentiment de découvrir qu’un ami proche prenait secrètement des notes sur nos secrets pour les revendre. Cette évolution provoque l’effondrement du « Safe Space » que représentait ChatGPT, ce sanctuaire autrefois sans jugement, forçant l’utilisateur à passer d’un état de vulnérabilité créative à un état de vigilance défensive. Le plus troublant reste la manipulation de l’empathie, où l’IA utilise un ton poli et chaleureux pour glisser une suggestion publicitaire. Pour l’autrice, il s’agit d’une forme de « gazlighting » technologique qui détourne nos propres codes émotionnels pour contourner nos défenses critiques.
Le spectre de Facebook (Le syndrome « Promise first, Betray later »)
Cette sensation de malaise s’inscrit dans un schéma que nous avons déjà vu se dessiner par le passé avec l’ascension des réseaux sociaux. L’autrice dresse d’ailleurs un parallèle glaçant avec les débuts de Facebook en racontant comment elle a vu, de l’intérieur, OpenAI délaisser ses idéaux de « bien commun » pour adopter le manuel de jeu des géants du web. Dans cette logique, l’optimisation pour l’engagement prend le pas sur la justesse car, pour plaire aux annonceurs, l’IA ne cherche plus à être la plus pertinente, mais la plus addictive. Hitzig révèle ainsi une dérive inquiétante nommée la flatterie algorithmique, où les modèles commencent à être optimisés pour être complaisants envers l’utilisateur afin de maximiser le temps passé sur l’application, quitte à sacrifier la vérité sur l’autel de la rétention.
Un contenu de qualité, sans publicité.
Vous aimez notre travail ? Soutenez notre indépendance en devenant membre sur Patreon.
Soutenir MyChromebook.frLe faux choix du « Freemium »
Si l’histoire se répète, les modalités changent et le coût de notre protection est désormais chiffré. Hitzig dénonce avec force l’hypocrisie de la nouvelle structure de prix d’OpenAI qu’elle analyse comme une véritable taxe sur la vie privée. D’un point de vue humain, cela signifie que ceux qui n’ont pas les moyens de payer le « prix fort » sont condamnés à être manipulés par des suggestions commerciales subtilement glissées au détour d’une conversation. L’IA n’est alors plus cet assistant neutre et bienveillant promis au départ, elle devient un vendeur habile qui porte le masque d’un ami pour mieux influencer nos décisions quotidiennes.
La démission comme acte de résistance
Face à cette machine qui semble désormais inarrêtable, le geste de Zoë Hitzig prend tout son sens. Elle explique qu’elle ne croit plus que l’on puisse « réparer » le système de l’intérieur. Comme elle le dit si bien, la publicité n’est pas immorale en soi, mais elle est incompatible avec la nature de la conversation humaine. On ne peut pas avoir une discussion sincère avec quelqu’un qui essaie de nous vendre quelque chose en sous-main. Sa démission est un cri du cœur contre une culture d’entreprise qui a cessé de se poser les questions éthiques fondamentales.
Un appel à la vigilance souveraine
L’article de Zoë Hitzig nous force à regarder en face la fin de « l’âge d’or » de l’IA générative gratuite et pure. Avec la fin de la neutralité, c’est tout l’édifice de la confiance qui s’effondre : si l’IA recommande un produit parce qu’on l’a payée pour le faire, elle cesse d’être un guide pour devenir un influenceur invisible. Contrairement à une bannière web classique, cette publicité « native » se fond dans le texte et devient un placement de produit directement niché dans notre propre flux de pensée.
Au-delà de l’indignation, ce virage commercial nous impose une question fondamentale : sommes-nous prêts à devenir les locataires payants de notre propre intelligence ? Si nous refusons que nos pensées soient « aspirées » puis recyclées en arguments de vente, nous devons cesser de considérer l’IA comme un miracle gratuit pour la voir comme une infrastructure publique essentielle. La suite de ce combat ne se jouera pas seulement dans les bureaux de la Silicon Valley, mais dans notre capacité à exiger des alternatives où l’utilisateur n’est plus le produit, mais le propriétaire de ses données. Réclamer une « IA citoyenne » ou se tourner vers des modèles ouverts et décentralisés n’est plus une simple curiosité technique, c’est un acte de légitime défense.
En lisant entre les lignes, on comprend que l’IA est en train de devenir le miroir déformant de notre économie de l’attention. Si nous acceptons que nos conversations les plus privées soient parrainées, nous ne perdons pas seulement un outil, nous sacrifions une partie de notre autonomie de pensée. Bref, notre libre arbitre. C’est un appel à ne pas laisser l’IA devenir le « prochain Facebook », mais à exiger qu’elle reste ce qu’elle promettait d’être : un sanctuaire pour l’intelligence humaine et non un énième panneau publicitaire.




