{"id":28379,"date":"2025-09-02T10:30:00","date_gmt":"2025-09-02T08:30:00","guid":{"rendered":"https:\/\/monraspberry.com\/?p=28379"},"modified":"2025-08-18T15:27:20","modified_gmt":"2025-08-18T13:27:20","slug":"instalar-ollama-raspberry-pi","status":"publish","type":"post","link":"https:\/\/monraspberry.com\/es\/installer-ollama-raspberry-pi\/","title":{"rendered":"Instalaci\u00f3n de Ollama en Raspberry Pi: tutorial completo y gu\u00eda pr\u00e1ctica"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Introducci\u00f3n<\/h2>\n\n\n\n<p>La inteligencia artificial ya est\u00e1 al alcance de todos, y no s\u00f3lo en servidores potentes. Con <strong><a href=\"https:\/\/monraspberry.com\/es\/ollama-raspberry-pi\/\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/monraspberry.com\/ollama-raspberry-pi\/\" rel=\"noreferrer noopener\">Ollama<\/a><\/strong>puede ejecutar modelos ling\u00fc\u00edsticos (LLM) directamente en <strong>local<\/strong>.<br>Este tutorial le muestra c\u00f3mo instalar Ollama en un <strong>Raspberry Pi 5 (o Pi 4)<\/strong>y c\u00f3mo empezar a utilizar localmente tus primeros modelos de IA.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">1. Requisitos previos<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Equipamiento recomendado<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><a href=\"https:\/\/monraspberry.com\/es\/product\/raspberry-pi-5-8gb\/\">Raspberry Pi 5<\/a><\/strong> (o Pi 4, pero menos potente).<\/li>\n\n\n\n<li><strong>8 GB DE RAM<\/strong> recomendado (4 GB posible con modelos peque\u00f1os).<\/li>\n\n\n\n<li><strong>Tarjeta <a href=\"https:\/\/monraspberry.com\/es\/product\/carte-micro-sd-sandisk-ultra\/\">microSD 32 GB<\/a> m\u00ednimo<\/strong> o mejor : <strong><a href=\"https:\/\/monraspberry.com\/es\/cat\/frambuesa-pi-5\/accesorios-raspberry-pi-5\/\">Unidades SSD NVMe<\/a> \/ USB<\/strong>.<\/li>\n\n\n\n<li><strong>Conexi\u00f3n a Internet<\/strong> para descargar Ollama y los modelos.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Software<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Raspberry Pi OS (64 bits)<\/strong> basado en Debian Bookworm o Bullseye.<\/li>\n\n\n\n<li>Un terminal accesible (mediante teclado\/pantalla o SSH).<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">2. Actualizaci\u00f3n del sistema<\/h2>\n\n\n\n<p>Antes de instalar, actualice su Pi :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nsudo apt update &amp;&amp; sudo apt upgrade -y\n<\/pre><\/div>\n\n\n<p>A continuaci\u00f3n, reinicie :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nsudo reboot\n<\/pre><\/div>\n\n\n<h2 class=\"wp-block-heading\">3. Instalaci\u00f3n de Ollama en Raspberry Pi<\/h2>\n\n\n\n<p>Ollama ofrece un script de instalaci\u00f3n oficial. Desc\u00e1rgalo y ejec\u00fatalo:<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\ncurl -fsSL https:\/\/ollama.com\/install.sh | sh\n<\/pre><\/div>\n\n\n<p>\u26a1 Instala Ollama y configura autom\u00e1ticamente el servicio del sistema.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">4. Compruebe la instalaci\u00f3n<\/h2>\n\n\n\n<p>Una vez instalado, comprueba que Ollama est\u00e1 activo:<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nollama --version\n<\/pre><\/div>\n\n\n<p>Deber\u00eda aparecer un n\u00famero de versi\u00f3n.<\/p>\n\n\n\n<p>Tambi\u00e9n puede comprobar que el servicio est\u00e1 en funcionamiento:<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nsystemctl status ollama\n<\/pre><\/div>\n\n\n<h2 class=\"wp-block-heading\">5. Descargar y ejecutar un modelo de AI<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Ejemplo con LLaMA 2<\/h3>\n\n\n\n<p>Ejecutar <strong>LLaMA 2<\/strong>tipo :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nollama run llama2\n<\/pre><\/div>\n\n\n<p>La plantilla se descargar\u00e1 autom\u00e1ticamente (varios cientos de MB de tama\u00f1o).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Ejemplo con Mistral<\/h3>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nollama run mistral\n<\/pre><\/div>\n\n\n<p>Ejemplo con un modelo m\u00e1s ligero (TinyLlama)<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nollama run tinyllama\n<\/pre><\/div>\n\n\n<p>\ud83d\udc49 En la Raspberry Pi, prefiera la opci\u00f3n <strong>Modelos ajustados y cuantificados<\/strong> (Q4, Q5), de lo contrario el rendimiento ser\u00e1 muy lento.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">6. Interacci\u00f3n con Ollama<\/h2>\n\n\n\n<p>Una vez lanzado el modelo, puedes chatear directamente en el terminal.<\/p>\n\n\n\n<p>Ejemplo:<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\n&gt; Hola, \u00bfqui\u00e9n eres?\nSoy un modelo ling\u00fc\u00edstico impulsado por Ollama.\n<\/pre><\/div>\n\n\n<p>Para salir :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\n\/Adi\u00f3s.\n<\/pre><\/div>\n\n\n<h2 class=\"wp-block-heading\">7. Utilizaci\u00f3n de Ollama a trav\u00e9s de la API REST<\/h2>\n\n\n\n<p>Ollama integra un <strong>API local<\/strong>. Puede acceder a \u00e9l en el puerto <code>11434<\/code>.<\/p>\n\n\n\n<p>Ejemplo con <code>rizo<\/code> :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\ncurl http:\/\/localhost:11434\/api\/generate -d '{\n  \"model\": \"llama2\",\n  \"prompt\": \"Expl\u00edcame la Raspberry Pi en 3 frases\".\n}'\n<\/pre><\/div>\n\n\n<p>\ud83d\udc49 Resultado: una respuesta JSON que contiene el texto generado.<\/p>\n\n\n\n<p>Esto significa que puede integrar Ollama en su <strong>aplicaciones, sitios web o proyectos de dom\u00f3tica<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">8. Optimizaciones para Raspberry Pi<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Uso de una unidad SSD<\/strong> en lugar de una tarjeta microSD \u2192 m\u00e1s r\u00e1pida y fiable.<\/li>\n\n\n\n<li><strong>Elige modelos ligeros<\/strong> TinyLlama, GPT4All-J, Vicuna quantis\u00e9.<\/li>\n\n\n\n<li><strong>Limitar las solicitudes largas<\/strong> El Pi tiene muy poca memoria, as\u00ed que evita las entradas demasiado grandes.<\/li>\n\n\n\n<li><strong>Ventilaci\u00f3n<\/strong> Si vas a utilizar una Pi 5 de forma intensiva, necesitar\u00e1s un ventilador o una unidad de aire acondicionado. <a href=\"https:\/\/monraspberry.com\/es\/product\/boitier-neo-pour-raspberry-pi-5\/\">carcasa ventilada<\/a>.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">9. Soluci\u00f3n rutinaria de problemas<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Ollama no arranca<\/h3>\n\n\n\n<p>Comprueba el servicio:<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nsystemctl restart ollama\n<\/pre><\/div>\n\n\n<h3 class=\"wp-block-heading\">Error de memoria insuficiente<\/h3>\n\n\n\n<p>Pruebe con un modelo m\u00e1s peque\u00f1o o reduzca el tama\u00f1o del contexto. Ejemplo:<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nOLLAMA_CONTEXT=512 ollama run tinyllama\n<\/pre><\/div>\n\n\n<h3 class=\"wp-block-heading\">Descarga lenta<\/h3>\n\n\n\n<p>Utilice una conexi\u00f3n Ethernet para descargar los modelos por primera vez.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">10. Aplicaciones pr\u00e1cticas con Ollama en el Pi<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Asistente personal local<\/strong> \u2192 chatbot de l\u00ednea de comandos.<\/li>\n\n\n\n<li><strong>Servidor dom\u00e9stico de IA<\/strong> \u2192 conectado al Asistente Hogar para controlar tu casa en lenguaje natural.<\/li>\n\n\n\n<li><strong>Aprender<\/strong> \u2192 comprender c\u00f3mo funcionan los LLM y sus limitaciones.<\/li>\n\n\n\n<li><strong>Desarrollo<\/strong> \u2192 crear apps locales (toma de notas inteligente, res\u00famenes, generadores de texto).<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusi\u00f3n<\/h2>\n\n\n\n<p>Instale <strong>Ollama en Raspberry Pi<\/strong> es una forma accesible y emocionante de explorar la inteligencia artificial a nivel local. Por supuesto, la Pi no puede competir con los servidores equipados con GPU, pero permite <strong>probar, aprender y crear proyectos pr\u00e1cticos<\/strong> con un coste y un consumo de energ\u00eda m\u00ednimos.<\/p>\n\n\n\n<p>\ud83d\udc49 Con Ollama, tu Raspberry Pi se convierte en un <strong>miniservidor personal de IA<\/strong>totalmente bajo su control.<\/p>","protected":false},"excerpt":{"rendered":"<p>Aprende a instalar y configurar Ollama en Raspberry Pi para ejecutar tus modelos de IA localmente. Tutorial completo paso a paso.<\/p>","protected":false},"author":1,"featured_media":28381,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[308],"tags":[],"class_list":["post-28379","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tutos"],"featured_image_src":{"landsacpe":["https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi-1140x445.png",1140,445,true],"list":["https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi-463x348.png",463,348,true],"medium":["https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi-300x169.png",300,169,true],"full":["https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi.png",1920,1080,false]},"jetpack_featured_media_url":"https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi.png","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/posts\/28379","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/comments?post=28379"}],"version-history":[{"count":0,"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/posts\/28379\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/media\/28381"}],"wp:attachment":[{"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/media?parent=28379"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/categories?post=28379"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/monraspberry.com\/es\/wp-json\/wp\/v2\/tags?post=28379"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}