Instalación de Ollama en Raspberry Pi: tutorial completo y guía práctica

Introducción

La inteligencia artificial ya está al alcance de todos, y no sólo en servidores potentes. Con Ollamapuede ejecutar modelos lingüísticos (LLM) directamente en local.
Este tutorial le muestra cómo instalar Ollama en un Raspberry Pi 5 (o Pi 4)y cómo empezar a utilizar localmente tus primeros modelos de IA.

1. Requisitos previos

Equipamiento recomendado

  • Raspberry Pi 5 (o Pi 4, pero menos potente).
  • 8 GB DE RAM recomendado (4 GB posible con modelos pequeños).
  • Tarjeta microSD 32 GB mínimo o mejor : Unidades SSD NVMe / USB.
  • Conexión a Internet para descargar Ollama y los modelos.

Software

  • Raspberry Pi OS (64 bits) basado en Debian Bookworm o Bullseye.
  • Un terminal accesible (mediante teclado/pantalla o SSH).

2. Actualización del sistema

Antes de instalar, actualice su Pi :

sudo apt update && sudo apt upgrade -y

A continuación, reinicie :

sudo reboot

3. Instalación de Ollama en Raspberry Pi

Ollama ofrece un script de instalación oficial. Descárgalo y ejecútalo:

curl -fsSL https://ollama.com/install.sh | sh

⚡ Instala Ollama y configura automáticamente el servicio del sistema.

4. Compruebe la instalación

Una vez instalado, comprueba que Ollama está activo:

ollama --version

Debería aparecer un número de versión.

También puede comprobar que el servicio está en funcionamiento:

systemctl status ollama

5. Descargar y ejecutar un modelo de AI

Ejemplo con LLaMA 2

Ejecutar LLaMA 2tipo :

ollama run llama2

La plantilla se descargará automáticamente (varios cientos de MB de tamaño).

Ejemplo con Mistral

ollama run mistral

Ejemplo con un modelo más ligero (TinyLlama)

ollama run tinyllama

👉 En la Raspberry Pi, prefiera la opción Modelos ajustados y cuantificados (Q4, Q5), de lo contrario el rendimiento será muy lento.

6. Interacción con Ollama

Una vez lanzado el modelo, puedes chatear directamente en el terminal.

Ejemplo:

> Hola, ¿quién eres?
Soy un modelo lingüístico impulsado por Ollama.

Para salir :

/Adiós.

7. Utilización de Ollama a través de la API REST

Ollama integra un API local. Puede acceder a él en el puerto 11434.

Ejemplo con rizo :

curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt": "Explícame la Raspberry Pi en 3 frases".
}'

👉 Resultado: una respuesta JSON que contiene el texto generado.

Esto significa que puede integrar Ollama en su aplicaciones, sitios web o proyectos de domótica.

8. Optimizaciones para Raspberry Pi

  • Uso de una unidad SSD en lugar de una tarjeta microSD → más rápida y fiable.
  • Elige modelos ligeros TinyLlama, GPT4All-J, Vicuna quantisé.
  • Limitar las solicitudes largas El Pi tiene muy poca memoria, así que evita las entradas demasiado grandes.
  • Ventilación Si vas a utilizar una Pi 5 de forma intensiva, necesitarás un ventilador o una unidad de aire acondicionado. carcasa ventilada.

9. Solución rutinaria de problemas

Ollama no arranca

Comprueba el servicio:

systemctl restart ollama

Error de memoria insuficiente

Pruebe con un modelo más pequeño o reduzca el tamaño del contexto. Ejemplo:

OLLAMA_CONTEXT=512 ollama run tinyllama

Descarga lenta

Utilice una conexión Ethernet para descargar los modelos por primera vez.

10. Aplicaciones prácticas con Ollama en el Pi

  • Asistente personal local → chatbot de línea de comandos.
  • Servidor doméstico de IA → conectado al Asistente Hogar para controlar tu casa en lenguaje natural.
  • Aprender → comprender cómo funcionan los LLM y sus limitaciones.
  • Desarrollo → crear apps locales (toma de notas inteligente, resúmenes, generadores de texto).

Conclusión

Instale Ollama en Raspberry Pi es una forma accesible y emocionante de explorar la inteligencia artificial a nivel local. Por supuesto, la Pi no puede competir con los servidores equipados con GPU, pero permite probar, aprender y crear proyectos prácticos con un coste y un consumo de energía mínimos.

👉 Con Ollama, tu Raspberry Pi se convierte en un miniservidor personal de IAtotalmente bajo su control.