
Instalación de Ollama en Raspberry Pi: tutorial completo y guía práctica
Introducción
La inteligencia artificial ya está al alcance de todos, y no sólo en servidores potentes. Con Ollamapuede ejecutar modelos lingüísticos (LLM) directamente en local.
Este tutorial le muestra cómo instalar Ollama en un Raspberry Pi 5 (o Pi 4)y cómo empezar a utilizar localmente tus primeros modelos de IA.
1. Requisitos previos
Equipamiento recomendado
- Raspberry Pi 5 (o Pi 4, pero menos potente).
- 8 GB DE RAM recomendado (4 GB posible con modelos pequeños).
- Tarjeta microSD 32 GB mínimo o mejor : Unidades SSD NVMe / USB.
- Conexión a Internet para descargar Ollama y los modelos.
Software
- Raspberry Pi OS (64 bits) basado en Debian Bookworm o Bullseye.
- Un terminal accesible (mediante teclado/pantalla o SSH).
2. Actualización del sistema
Antes de instalar, actualice su Pi :
sudo apt update && sudo apt upgrade -y
A continuación, reinicie :
sudo reboot
3. Instalación de Ollama en Raspberry Pi
Ollama ofrece un script de instalación oficial. Descárgalo y ejecútalo:
curl -fsSL https://ollama.com/install.sh | sh
⚡ Instala Ollama y configura automáticamente el servicio del sistema.
4. Compruebe la instalación
Una vez instalado, comprueba que Ollama está activo:
ollama --version
Debería aparecer un número de versión.
También puede comprobar que el servicio está en funcionamiento:
systemctl status ollama
5. Descargar y ejecutar un modelo de AI
Ejemplo con LLaMA 2
Ejecutar LLaMA 2tipo :
ollama run llama2
La plantilla se descargará automáticamente (varios cientos de MB de tamaño).
Ejemplo con Mistral
ollama run mistral
Ejemplo con un modelo más ligero (TinyLlama)
ollama run tinyllama
👉 En la Raspberry Pi, prefiera la opción Modelos ajustados y cuantificados (Q4, Q5), de lo contrario el rendimiento será muy lento.
6. Interacción con Ollama
Una vez lanzado el modelo, puedes chatear directamente en el terminal.
Ejemplo:
> Hola, ¿quién eres?
Soy un modelo lingüístico impulsado por Ollama.
Para salir :
/Adiós.
7. Utilización de Ollama a través de la API REST
Ollama integra un API local. Puede acceder a él en el puerto 11434
.
Ejemplo con rizo
:
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "Explícame la Raspberry Pi en 3 frases".
}'
👉 Resultado: una respuesta JSON que contiene el texto generado.
Esto significa que puede integrar Ollama en su aplicaciones, sitios web o proyectos de domótica.
8. Optimizaciones para Raspberry Pi
- Uso de una unidad SSD en lugar de una tarjeta microSD → más rápida y fiable.
- Elige modelos ligeros TinyLlama, GPT4All-J, Vicuna quantisé.
- Limitar las solicitudes largas El Pi tiene muy poca memoria, así que evita las entradas demasiado grandes.
- Ventilación Si vas a utilizar una Pi 5 de forma intensiva, necesitarás un ventilador o una unidad de aire acondicionado. carcasa ventilada.
9. Solución rutinaria de problemas
Ollama no arranca
Comprueba el servicio:
systemctl restart ollama
Error de memoria insuficiente
Pruebe con un modelo más pequeño o reduzca el tamaño del contexto. Ejemplo:
OLLAMA_CONTEXT=512 ollama run tinyllama
Descarga lenta
Utilice una conexión Ethernet para descargar los modelos por primera vez.
10. Aplicaciones prácticas con Ollama en el Pi
- Asistente personal local → chatbot de línea de comandos.
- Servidor doméstico de IA → conectado al Asistente Hogar para controlar tu casa en lenguaje natural.
- Aprender → comprender cómo funcionan los LLM y sus limitaciones.
- Desarrollo → crear apps locales (toma de notas inteligente, resúmenes, generadores de texto).
Conclusión
Instale Ollama en Raspberry Pi es una forma accesible y emocionante de explorar la inteligencia artificial a nivel local. Por supuesto, la Pi no puede competir con los servidores equipados con GPU, pero permite probar, aprender y crear proyectos prácticos con un coste y un consumo de energía mínimos.
👉 Con Ollama, tu Raspberry Pi se convierte en un miniservidor personal de IAtotalmente bajo su control.