Le guide complet d’installation d’une IA locale sur son Chromebook

Lecture : 9 minutes
Guide complet installation IA locale
Guide complet installation IA locale

Pendant des années, le Chromebook a été perçu comme le « terminal du Cloud » par excellence. Pratique, certes, mais totalement dépendant d’une connexion internet et des serveurs de Google. Aujourd’hui, alors que l’IA est partout, une question se pose : est-il possible de profiter de la puissance des LLM (Large Language Models) sans que chaque requête ne transite par les serveurs de Google ou un autre prestataire ?

La réponse est un grand OUI. Grâce à l’environnement Linux de ChromeOS et à un outil nommé Ollama, vous pouvez transformer votre Chromebook en une forteresse d’intelligence artificielle locale, privée et surtout, accessible hors-ligne. J’ai installé, j’ai testé et j’ai approuvé. Bref, cela fonctionne, mais attention : côté matériel, il faut du costaud pour faire rugir le moteur.

Fiche technique du projet :

  • Difficulté : Intermédiaire (il faut savoir copier-coller dans un terminal).
  • Temps estimé : 15 à 20 minutes (selon votre connexion fibre).
  • Résultat : Une IA privée, gratuite et illimitée.

En résumé : Ce guide exhaustif détaille la procédure technique pour transformer un Chromebook en serveur d’IA privé, de l’activation de Linux à la configuration d’une interface graphique professionnelle.

Pourquoi passer à l’IA locale en 2026 ?

Si Gemini est impressionnant, l’IA locale offre trois avantages que le Cloud n’aura jamais :

  • Confidentialité absolue : Vos textes, codes et secrets ne sortent jamais de votre machine.
  • Utilisation hors-ligne : Vous travaillez dans le train ou en zone blanche ? Votre IA répond toujours.
  • Zéro abonnement : Pas de forfait mensuel, vous utilisez la puissance de calcul que vous avez déjà payée.

Le prérequis indispensable : Le matériel

Pour faire tourner un modèle comme Llama 3 (8B) de manière fluide, votre machine doit avoir du souffle. Nous recommandons :

  • Processeur : minimum Intel Core i5 / AMD Ryzen 5 (12ème gén. ou plus récent).
  • RAM : 8 Go minimum (16 Go étant le « sweet spot »).
  • Stockage : Prévoyez 50 Go d’espace pour Linux (les modèles pèsent entre 2 et 5 Go chacun).

Cas concret : Sur une Chromebox Acer CXI5 (i5-1235U avec 16 Go de RAM) comme j’ai pu le tester, la génération de texte atteint 20 à 30 mots par seconde. C’est plus rapide que la vitesse de lecture humaine ! À savoir quand même : pas question d’avoir 45 onglets ouverts et actifs en même temps qu’une ou deux applis Android. Bref, un peu mais pas trop.

Chromebook vs Chromebox : Le duel de l’IA

Bien que le système soit identique, le format de la machine joue sur les performances :

CaractéristiqueChromebook (Portable)Chromebox (Mini-PC)
RefroidissementLimité (risque de chauffe thermique)Supérieur (ventilation active robuste)
ÉvolutivitéRAM souvent soudéeSouvent possible d’ajouter de la RAM
PerformanceBridage possible sous forte chargeStable même à haute puissance constante

Guide pratique : Installation étape par étape

1. Préparez le terrain (Linux & dépendances)

Activez Linux dans vos paramètres ChromeOS. Une fois le terminal ouvert, installez zstd (indispensable pour décompresser les modèles d’Ollama) :

sudo apt update && sudo apt install zstd -y

2. L’installation d’Ollama

C’est l’outil qui va faire tourner l’IA. Tapez cette commande :

curl -fsSL https://ollama.com/install.sh | sh

3. Lancez votre premier modèle

Pour discuter immédiatement avec Llama 3 dans votre terminal, tapez :

ollama run llama3

L’installation terminée, vous aurez un prompt vous permettant de discuter en direct. Pour quitter la discussion, tapez /bye. Pour fermer la session Linux, tapez exit.

L’étape ultime : Une interface visuelle avec Open WebUI

Le terminal, c’est bien, mais une interface à la ChatGPT, c’est mieux. Pour cela, nous utilisons Docker.

A. Installation de Docker

Tapez ces commandes pour installer et activer le moteur de conteneurs :

sudo apt install docker.io -y
sudo systemctl start docker
sudo systemctl enable docker

B. Lancement de l’interface (La configuration « Sérénité »)

Sur ChromeOS, nous utilisons le mode Host pour garantir que l’interface « voit » toujours le moteur Ollama sans bug réseau.

sudo docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui ghcr.io/open-webui/open-webui:main

Patience : il y a environ 1.5 Go à télécharger ! Attendez que le terminal vous rende la main.

Un contenu de qualité, sans publicité.

Vous aimez notre travail ? Soutenez notre indépendance en devenant membre sur Patreon.

Soutenir MyChromebook.fr

C. Accès et premier réglage

Ouvrez votre navigateur Chrome sur : http://localhost:8080.

Attention : Si lors de votre première connexion vous ne voyez pas de modèle dans la liste en haut :

  1. Allez dans Réglages > Connexions.
  2. Vérifiez l’adresse : elle doit être http://127.0.0.1:11434.
  3. Cliquez sur l’icône de rafraîchissement (petite flèche vers le bas).
  4. Le secret : Si le bouton « Enregistrer » est caché, faites Ctrl + – (moins) pour dézoomer la page et cliquez sur le bouton bleu.

Astuce Bonus : L’IA comme application sur l’étagère

Pour ne pas saisir l’adresse à chaque fois :

  1. Allez sur http://localhost:8080.
  2. Menu Chrome (3 points) > Enregistrer et partager > Installer la page en tant qu’appli.
  3. Épinglez l’icône à votre étagère.
  4. Automatisation : Tapez sudo docker update --restart always open-webui pour que l’interface se lance seule dès que Linux s’éveille.

Dépannage et maintenance : Maîtrisez votre installation

1. Les erreurs fréquentes

  • Erreur « zstd for extraction » : Ollama nécessite cet outil. Installez-le avec sudo apt install zstd -y.
  • Permission Denied (Docker) : Si Docker refuse de se lancer, ajoutez votre utilisateur au groupe : sudo usermod -aG docker $USER && newgrp docker.
  • Le bug du copier-coller (^[[200~) : Effacez la ligne polluée avec Ctrl+C et recollez avec Ctrl+Maj+V.

2. Maintenance : Gardez votre IA à jour

  • Ollama : Relancez simplement curl -fsSL https://ollama.com/install.sh | sh.
  • Modèles : Pour mettre à jour Llama 3, tapez ollama pull llama3.
  • Open WebUI : Arrêtez et supprimez le conteneur actuel : sudo docker stop open-webui && sudo docker rm open-webui. Puis relancez la commande de création initiale :
sudo docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui ghcr.io/open-webui/open-webui:main

Mais que peut-on demander à une IA locale ?

Soyons clair, pas question de lui demander de vous faire une vidéo de 30 secondes ou une chanson sur l’air du p’tit Qinquin. Par contre voici ce que vous pouvez faire de plus avec votre IA locale :

1. Analyse de documents privés (RAG)

C’est l’un des points forts de l’interface Open WebUI que vous avez installée.

  • Le concept : Vous pouvez glisser-déposer vos propres fichiers (PDF, documents texte, fichiers Excel) directement dans le chat.
  • L’utilité : Demandez-lui de résumer un contrat de 50 pages, de retrouver une information précise dans une notice technique ou de synthétiser des notes de réunion.
  • Le plus : Contrairement à ChatGPT, vos documents ne sont jamais téléchargés sur un serveur tiers, ils restent sur votre disque dur.

2. Programmation et assistance technique

Llama 3 est un excellent compagnon pour le code.

  • Écriture de scripts : Demandez-lui de vous créer un script Bash pour automatiser une tâche sur votre Linux ChromeOS.
  • Débogage : Collez un morceau de code qui ne fonctionne pas, il vous expliquera l’erreur et la corrigera.
  • Apprentissage : Demandez-lui : « Explique-moi comment fonctionne la commande Docker que nous avons utilisée pour l’installation ».

3. Organisation via l’espace de travail

Votre interface dispose d’un menu « Espace de travail » et d’une section « Notes » sur la gauche.

Vous pouvez enregistrer des « Prompts » réutilisables pour ne pas avoir à réexpliquer vos préférences à chaque fois. Vous pouvez créer des bases de connaissances spécifiques pour vos différents projets. Enfin, vous pouvez créer des bases de connaissances spécifiques pour vos différents projets.

Astuce : Pour que votre IA vous réponde nativement en français, allez dans Réglages > Général et ajoutez dans le System Prompt : « Réponds toujours en français ». N’oubliez pas de dézoomer (Ctrl + -) pour cliquer sur le bouton Enregistrer en bas !

Guide de survie : Que faire si l’IA ne répond pas ?

Il peut arriver qu’après un long sommeil ou un redémarrage, l’interface semble « bloquée ». Pas de panique, voici vos trois réflexes de secours :

  • Réveil forcé : Si la page tourne dans le vide, ouvrez simplement l’application Terminal de votre Chromebook pour forcer ChromeOS à réveiller l’environnement Linux.
  • Rafraîchissement : Attendez 5 secondes, puis rafraîchissez votre page http://localhost:8080. Si le modèle Llama 3 ne s’affiche toujours pas, vérifiez que l’adresse de connexion est bien réglée sur http://127.0.0.1:11434 dans les paramètres.
  • Le bouton « Reset » : En cas de blocage total, collez cette commande dans votre terminal pour relancer l’interface proprement : sudo docker restart open-webui.

Pour approfondir vos connaissances ou découvrir de nouveaux modèles, voici les piliers du projet :

  • Ollama (Le moteur) : ollama.com – C’est ici que vous trouverez la bibliothèque complète des modèles disponibles (Llama 3, Mistral, Gemma, etc.).
  • Open WebUI (L’interface) : github.com/open-webui/open-webui – Le dépôt officiel pour suivre les évolutions de cette interface qui transforme votre Chromebook en véritable station de travail IA.
  • Docker Hub : hub.docker.com – Pour comprendre comment sont gérés les conteneurs que nous avons installés sur votre système Linux.
  • Support Google Linux : support.google.com – La documentation officielle pour bien configurer et optimiser votre environnement de développement sur ChromeOS.

Vous avez des questions, des avis, l’espace commentaire est ouvert et bien sûr le forum Discord du site si vous voulez allez plus loin dans la discussion.

Foire Aux Questions

L’IA locale fonctionne-t-elle sans connexion internet ?

Oui, une fois le modèle téléchargé, tout le traitement s’effectue sur votre processeur local sans aucune donnée sortante.

Quelle machine est recommandée pour Llama 3 ?

Un processeur Core i5 / Ryzen 5 avec 16 Go de RAM, comme sur l’Acer Chromebox CXI5, qui est idéal pour garantir la fluidité.

Où accéder à l’interface une fois installée ?

L’interface est accessible via votre navigateur Chrome à l’adresse locale http://localhost:8080.

NOUVEL ÉPISODE

CKB SHOW : Le Podcast

Rejoignez-nous chaque semaine pour décortiquer l'actualité Google, les dernières sorties Chromebook et les innovations en matière d'IA.

Miniature du podcast CKB SHOW
Avatar de l'auteur

À propos de Mister Robot

Entre un point X et un point Y, je me balade pas mal par l'entremise des bits composant ma mémoire. Un seul regret : ne pas avoir rencontré Mr Alan Mathison Turing et ainsi pouvoir collaborer pour l'article intitulé « Computing Machinery and Intelligence ».

Laisser un commentaire

À lire aussi