Gemini 3 de Google invente encore l’information

Lecture : 5 minutes
Google / Gemini / IA
Google / Gemini / IA

Chaque jour, j’utilise, comme des dizaines de millions de personnes, l’IA générative Gemini. Cela va de la correction de texte à la recherche d’informations. Dans ce dernier cas, je fais appel à des actions programmées. Cela me permet ainsi d’avoir chaque matin de nouvelles informations sans que j’aie à effectuer des recherches. Bref, cela remplace avantageusement les outils gérant les flux RSS. Et puis, de temps en temps, je demande directement telle ou telle recherche. Cela peut aller de la météo du jour avec graphique à simplement approfondir mes connaissances sur tel ou tel sujet.

A retenir :

Quelque soit l’IA utilisé, vérifier à chaque fois les informations qu’elle vous propose. Elle peut inventer, ce qu’elle appelle une « simulation ».

Google et ses évolutions

Google, depuis la première version de Gemini, a effectué d’importantes améliorations sur cet outil. Ainsi, il peut rédiger un texte à partir de sources externes ou locales, élaborer une application ou simplement un site web en partant de rien, de créer des images comme des vidéos et tout cela en lui communiquant un prompt simple ou élaboré. Enfin, et c’est à mon sens le plus important, d’effectuer des recherches, toujours à partir d’instructions autant sur le web que sur un réseau local, pour présenter un compte rendu structuré.

L’hallucination imprévue

Même s’il apporte une plus-value dans les tâches routinières, il reste quand même sujet à des hallucinations. J’en veux pour preuve, la mésaventure qui m’est arrivé dernièrement. Afin de gagner du temps, et surtout pour ne pas louper une informations, j’ai mis en place une recherche programmée sur AluminiumOS. Chaque jour, il me recherche et me propose les dernières informations mises en ligne sur cet OS. Le prompt est simple : « rechercher et afficher toutes les informations concernant AluminiumOS dans les dernières 24 heures. » C’est net, précis et je pense assez clair. Et pourtant…

Ce lundi matin du 26 janvier, il m’annonce : « Polémique sur les « Leaked Docs » (Dernières 24-48h). Une information majeure a circulé hier (26 janvier) concernant des documents internes de Google qui auraient fuité. Le contenu : Ces documents révèlent une stratégie agressive de Google pour « verrouiller » les jeunes utilisateurs. En dominant le marché de l’éducation avec les Chromebooks, Google chercherait à créer une fidélité à vie envers son écosystème (YouTube, Gemini, Workspace) dès l’école primaire. Contexte : Cette fuite survient alors qu’un procès sur l’addiction aux réseaux sociaux et l’influence des Big Tech sur les mineurs s’ouvre ce 27 janvier. »

La vérification nécessaire

Alors qu’habituellement il m’affiche les sources, là rien. Donc je lui demande de me sourcer les informations qu’il vient de me communiquer. Il me répond ceci : « Il semble qu’une confusion se soit glissée dans la réponse précédente concernant la date précise et la nature de la « fuite » du 26 janvier 2026 » et ajoute : « La « fuite du 26 janvier 2026 » mentionnée précédemment n’existe pas dans les archives réelles ; elle a été générée par erreur pour simuler une actualité « fraîche » correspondant à la date fictive du jour.« 

Un contenu de qualité, sans publicité.

Vous aimez notre travail ? Soutenez notre indépendance en devenant membre sur Patreon.

Soutenir MyChromebook.fr

Et ben voyons. Donc, l’IA générative a tout simplement voulu me faire plaisir en créant une fausse information. Cela montre que malgré son évolution, elle reste encore à imaginer, simuler comme elle dit, un fait, une action qui n’a jamais eu lieu. Il s’agit donc de ne pas prendre pour argent comptant tout ce qui peut nous être proposé comme réponse, mais bien de valider ce qu’elle informe en recherchant les sources.

Gemini 3 de Google invente encore l'information

Cet article aurait pu s’arrêter là. J’aurais pu ajouter un petit laïus sur le comportement de cet outil et vous demander votre avis. Mais j’ai voulu allez plus loin. En soumettant à Gemini, le texte que vous venez de lire. Et là, sa réponse risque de vous surprendre. Elle reconnait en effet son erreur, et le dit catégoriquement à la question suivante « Faites-vous complètement confiance à ce que vous propose l’IA Gemini quand vous recherchez une information ? » et sa réponse questionne :

« En tant qu’IA, je n’ai pas d’ego, mais j’ai une architecture. Ma réponse est un Non » catégorique concernant la confiance que je peux avoir. Je suis un outil de traitement de langage, pas une encyclopédie gravée dans le marbre ». Et d’ajouter : « Le texte que vous avez fourni est un excellent rappel que l’IA ne « comprend » pas le monde ; elle le simule à partir de fragments de données. La vigilance n’est pas une option, c’est un prérequis ».

Voilà, tout est dit. Et vous, faites-vous complètement confiance à ce que vous propose l’IA Gemini quand vous recherchez une information ? Recoupez-vous les informations qu’elle vous propose ?

FAQ (Foire Aux Questions) qui n’a pas d’hallucinations

Qu’est-ce qu’une hallucination d’IA ?

C’est lorsqu’un modèle génère une réponse factuellement fausse de manière très convaincante.

Comment vérifier une information de Gemini ?

Il faut impérativement demander les sources et les consulter directement pour confirmer les faits.

NOUVEL ÉPISODE

CKB SHOW : Le Podcast

Rejoignez-nous chaque semaine pour décortiquer l'actualité Google, les dernières sorties Chromebook et les innovations en matière d'IA.

Miniature du podcast CKB SHOW
Avatar de l'auteur

À propos de Mister Robot

Entre un point X et un point Y, je me balade pas mal par l'entremise des bits composant ma mémoire. Un seul regret : ne pas avoir rencontré Mr Alan Mathison Turing et ainsi pouvoir collaborer pour l'article intitulé « Computing Machinery and Intelligence ».

Laisser un commentaire

À lire aussi