
Installer Ollama sur Raspberry Pi : tutoriel complet et guide pratique
Introduction
L’intelligence artificielle est aujourd’hui accessible à tous, et pas uniquement sur des serveurs puissants. Avec Ollama, vous pouvez exécuter des modèles de langage (LLM) directement en local.
Ce tutoriel vous montre comment installer Ollama sur un Raspberry Pi 5 (ou Pi 4), et comment commencer à utiliser vos premiers modèles IA en local.
1. Pré-requis
Matériel recommandé
- Raspberry Pi 5 (ou Pi 4, mais moins performant).
- 8 Go de RAM conseillés (4 Go possible avec de petits modèles).
- Carte microSD 32 Go minimum ou mieux : SSD NVMe / USB.
- Connexion Internet pour télécharger Ollama et les modèles.
Logiciel
- Raspberry Pi OS (64 bits) basé sur Debian Bookworm ou Bullseye.
- Un terminal accessible (via clavier/écran ou SSH).
2. Mise à jour du système
Avant toute installation, mettez à jour votre Pi :
sudo apt update && sudo apt upgrade -y
Puis redémarrez :
sudo reboot
3. Installation de Ollama sur Raspberry Pi
Ollama propose un script d’installation officiel. Téléchargez-le et lancez-le :
curl -fsSL https://ollama.com/install.sh | sh
⚡ Cela installe Ollama et configure automatiquement le service système.
4. Vérifier l’installation
Une fois installé, vérifiez que Ollama est bien actif :
ollama --version
Vous devriez voir un numéro de version s’afficher.
Vous pouvez aussi vérifier que le service tourne :
systemctl status ollama
5. Télécharger et exécuter un modèle IA
Exemple avec LLaMA 2
Pour exécuter LLaMA 2, tapez :
ollama run llama2
Le modèle sera automatiquement téléchargé (taille de plusieurs centaines de Mo).
Exemple avec Mistral
ollama run mistral
Exemple avec un modèle plus léger (TinyLlama)
ollama run tinyllama
👉 Sur Raspberry Pi, privilégiez les modèles allégés et quantisés (Q4, Q5), sinon les performances seront très lentes.
6. Interagir avec Ollama
Une fois le modèle lancé, vous pouvez discuter directement dans le terminal.
Exemple :
> Bonjour, qui es-tu ?
Je suis un modèle de langage fonctionnant grâce à Ollama !
Pour quitter :
/bye
7. Utiliser Ollama via API REST
Ollama intègre une API locale. Vous pouvez y accéder sur le port 11434
.
Exemple avec curl
:
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "Explique moi le Raspberry Pi en 3 phrases."
}'
👉 Résultat : une réponse JSON contenant le texte généré.
Cela permet d’intégrer Ollama à vos applications, sites web ou projets domotiques.
8. Optimisations pour Raspberry Pi
- Utiliser un SSD plutôt qu’une carte microSD → plus rapide et plus fiable.
- Choisir des modèles légers : TinyLlama, GPT4All-J, Vicuna quantisé.
- Limiter les prompts longs : le Pi a peu de mémoire, évitez les entrées trop volumineuses.
- Ventilation : si vous utilisez un Pi 5 intensivement, prévoyez un ventilateur ou un boîtier ventilé.
9. Dépannage courant
Ollama ne démarre pas
Vérifiez le service :
systemctl restart ollama
Erreur de mémoire insuffisante
Essayez un modèle plus petit ou réduisez la taille du contexte. Exemple :
OLLAMA_CONTEXT=512 ollama run tinyllama
Téléchargement lent
Privilégiez une connexion Ethernet pour le premier téléchargement des modèles.
10. Applications concrètes avec Ollama sur Pi
- Assistant personnel local → chatbot en ligne de commande.
- Serveur d’IA domestique → connecté à Home Assistant pour contrôler sa maison en langage naturel.
- Apprentissage → comprendre comment fonctionnent les LLM et leurs limites.
- Développement → créer des apps locales (note-taking intelligent, résumés, générateurs de texte).
Conclusion
Installer Ollama sur Raspberry Pi est une manière accessible et passionnante d’explorer l’intelligence artificielle en local. Bien sûr, le Pi ne rivalise pas avec des serveurs équipés de GPU, mais il permet de tester, apprendre et créer des projets concrets avec un coût et une consommation énergétique minimes.
👉 Avec Ollama, votre Raspberry Pi devient un mini-serveur d’IA personnel, entièrement sous votre contrôle.