{"id":28379,"date":"2025-09-02T10:30:00","date_gmt":"2025-09-02T08:30:00","guid":{"rendered":"https:\/\/monraspberry.com\/?p=28379"},"modified":"2025-08-18T15:27:20","modified_gmt":"2025-08-18T13:27:20","slug":"ollama-raspberry-pi-installieren","status":"publish","type":"post","link":"https:\/\/monraspberry.com\/de\/installer-ollama-raspberry-pi\/","title":{"rendered":"Ollama auf Raspberry Pi installieren: Komplettes Tutorial und praktische Anleitung"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Einf\u00fchrung<\/h2>\n\n\n\n<p>K\u00fcnstliche Intelligenz ist heute f\u00fcr jedermann zug\u00e4nglich, nicht nur auf leistungsstarken Servern. Mit <strong><a href=\"https:\/\/monraspberry.com\/de\/ollama-raspberry-pi\/\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/monraspberry.com\/ollama-raspberry-pi\/\" rel=\"noreferrer noopener\">Ollama<\/a><\/strong>k\u00f6nnen Sie Sprachmodelle (LLM) direkt in <strong>Lokal<\/strong>.<br>Dieses Tutorial zeigt Ihnen, wie Sie Ollama auf einem <strong>Raspberry Pi 5 (oder Pi 4)<\/strong>und wie Sie Ihre ersten KI-Modelle lokal einsetzen k\u00f6nnen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">1. Voraussetzung<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Empfohlenes Material<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><a href=\"https:\/\/monraspberry.com\/de\/product\/raspberry-pi-5-8gb\/\">Raspberry Pi 5<\/a><\/strong> (oder Pi 4, aber weniger leistungsf\u00e4hig).<\/li>\n\n\n\n<li><strong>8 GB RAM<\/strong> empfohlen (4 GB m\u00f6glich bei kleinen Modellen).<\/li>\n\n\n\n<li><strong>Karte <a href=\"https:\/\/monraspberry.com\/de\/product\/carte-micro-sd-sandisk-ultra\/\">microSD 32 GB<\/a> Minimum<\/strong> oder besser: <strong><a href=\"https:\/\/monraspberry.com\/de\/cat\/raspberry-pi-5\/zubehor-raspberry-pi-5\/\">NVMe-SSD<\/a> \/ USB<\/strong>.<\/li>\n\n\n\n<li><strong>Internetverbindung<\/strong> um Ollama und die Vorlagen herunterzuladen.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Software<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Raspberry Pi OS (64-Bit)<\/strong> basierend auf Debian Bookworm oder Bullseye.<\/li>\n\n\n\n<li>Ein Terminal, auf das zugegriffen werden kann (\u00fcber Tastatur\/Bildschirm oder SSH).<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">2. Aktualisierung des Systems<\/h2>\n\n\n\n<p>Aktualisieren Sie vor der Installation Ihren Pi :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nsudo apt update &amp;&amp; sudo apt upgrade -y\n<\/pre><\/div>\n\n\n<p>Starten Sie dann neu :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nsudo reboot\n<\/pre><\/div>\n\n\n<h2 class=\"wp-block-heading\">3. Installation von Ollama auf Raspberry Pi<\/h2>\n\n\n\n<p>Ollama bietet ein offizielles Installationsskript an. Laden Sie es herunter und f\u00fchren Sie es aus :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\ncurl -fsSL https:\/\/ollama.com\/install.sh | sh\n<\/pre><\/div>\n\n\n<p>\u26a1 Dadurch wird Ollama installiert und der Systemdienst automatisch eingerichtet.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">4. \u00dcberpr\u00fcfen Sie die Installation<\/h2>\n\n\n\n<p>\u00dcberpr\u00fcfen Sie nach der Installation, ob Ollama aktiv ist :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nollama --version\n<\/pre><\/div>\n\n\n<p>Sie sollten sehen, dass eine Versionsnummer angezeigt wird.<\/p>\n\n\n\n<p>Sie k\u00f6nnen auch \u00fcberpr\u00fcfen, ob der Dienst l\u00e4uft :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nsystemctl status ollama\n<\/pre><\/div>\n\n\n<h2 class=\"wp-block-heading\">5. Herunterladen und Ausf\u00fchren einer IA-Vorlage<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Beispiel mit LLaMA 2<\/h3>\n\n\n\n<p>Um auszuf\u00fchren <strong>LLaMA 2<\/strong>, geben Sie ein:<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nollama run llama2\n<\/pre><\/div>\n\n\n<p>Die Vorlage wird automatisch heruntergeladen (Gr\u00f6\u00dfe: mehrere hundert MB).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Beispiel mit Mistral<\/h3>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nollama run mistral\n<\/pre><\/div>\n\n\n<p>Beispiel mit einer leichteren Vorlage (TinyLlama)<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nollama run tinyllama\n<\/pre><\/div>\n\n\n<p>\ud83d\udc49 Auf Raspberry Pi bevorzugen Sie die <strong>schlanke und quantifizierte Modelle<\/strong> (Q4, Q5), da die Leistung sonst sehr langsam ist.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">6. Mit Ollama interagieren<\/h2>\n\n\n\n<p>Sobald die Vorlage gestartet ist, k\u00f6nnen Sie sich direkt im Terminal unterhalten.<\/p>\n\n\n\n<p>Beispiel:<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\n&gt; Hallo, wer bist du?\nIch bin ein Sprachmodell, das dank Ollama funktioniert!\n<\/pre><\/div>\n\n\n<p>Zum Beenden :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\n\/bye\n<\/pre><\/div>\n\n\n<h2 class=\"wp-block-heading\">7. Ollama \u00fcber REST API nutzen<\/h2>\n\n\n\n<p>Ollama integriert eine <strong>Lokale API<\/strong>. Sie k\u00f6nnen auf den Port zugreifen <code>11434<\/code>.<\/p>\n\n\n\n<p>Beispiel mit <code>curl<\/code> :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\ncurl http:\/\/localhost:11434\/api\/generate -d '{{\n  \"model\": \"llama2\",\n  \"prompt\": \"Erkl\u00e4re mir den Raspberry Pi in drei S\u00e4tzen\".\n}'\n<\/pre><\/div>\n\n\n<p>\ud83d\udc49 Ergebnis: Eine JSON-Antwort, die den erzeugten Text enth\u00e4lt.<\/p>\n\n\n\n<p>Dies erm\u00f6glicht es Ihnen, Ollama in Ihre <strong>Anwendungen, Webseiten oder Heimautomatisierungsprojekte<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">8. Optimierungen f\u00fcr Raspberry Pi<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Eine SSD verwenden<\/strong> statt einer microSD-Karte \u2192 schneller und zuverl\u00e4ssiger.<\/li>\n\n\n\n<li><strong>Leichte Modelle w\u00e4hlen<\/strong> : TinyLlama, GPT4All-J, Vicuna quantis\u00e9.<\/li>\n\n\n\n<li><strong>Lange Prompts einschr\u00e4nken<\/strong> : Der Pi hat nur wenig Speicher, vermeiden Sie zu gro\u00dfe Eintr\u00e4ge.<\/li>\n\n\n\n<li><strong>L\u00fcftung<\/strong> : Wenn Sie einen Pi 5 intensiv nutzen, sollten Sie einen Ventilator oder einen <a href=\"https:\/\/monraspberry.com\/de\/product\/neo-gehause-fur-raspberry-pi-5\/\">bel\u00fcftetes Geh\u00e4use<\/a>.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">9. Laufende Fehlerbehebung<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Ollama startet nicht<\/h3>\n\n\n\n<p>\u00dcberpr\u00fcfen Sie den Dienst :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nsystemctl restart ollama\n<\/pre><\/div>\n\n\n<h3 class=\"wp-block-heading\">Fehler bei zu wenig Speicher<\/h3>\n\n\n\n<p>Versuchen Sie es mit einer kleineren Vorlage oder verkleinern Sie den Kontext. Beispiel :<\/p>\n\n\n<div class=\"wp-block-syntaxhighlighter-code\"><pre class=\"brush: plain; title: ; notranslate\" title=\"\">\nOLLAMA_CONTEXT=512 ollama run tinyllama\n<\/pre><\/div>\n\n\n<h3 class=\"wp-block-heading\">Langsames Herunterladen<\/h3>\n\n\n\n<p>Bevorzugen Sie eine Ethernet-Verbindung f\u00fcr den ersten Download der Vorlagen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">10. Konkrete Anwendungen mit Ollama auf Pi<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Lokaler pers\u00f6nlicher Assistent<\/strong> \u2192 Chatbot auf der Kommandozeile.<\/li>\n\n\n\n<li><strong>Heimischer KI-Server<\/strong> \u2192 mit Home Assistant verbunden, um sein Haus in nat\u00fcrlicher Sprache zu steuern.<\/li>\n\n\n\n<li><strong>Lernen<\/strong> \u2192 verstehen, wie LLM funktionieren und wo ihre Grenzen liegen.<\/li>\n\n\n\n<li><strong>Entwicklung<\/strong> \u2192 lokale Apps erstellen (Smart Note-Taking, Zusammenfassungen, Textgeneratoren).<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Schlussfolgerung<\/h2>\n\n\n\n<p>Installieren Sie <strong>Ollama auf Raspberry Pi<\/strong> ist eine zug\u00e4ngliche und spannende M\u00f6glichkeit, k\u00fcnstliche Intelligenz lokal zu erforschen. Nat\u00fcrlich kann der Pi nicht mit Servern mit Grafikprozessoren konkurrieren, aber er bietet die M\u00f6glichkeit <strong>testen, lernen und konkrete Projekte erstellen<\/strong> mit minimalen Kosten und Energieverbrauch.<\/p>\n\n\n\n<p>\ud83d\udc49 Mit Ollama wird dein Raspberry Pi zu einem <strong>pers\u00f6nlicher KI-Miniserver<\/strong>Sie haben die volle Kontrolle \u00fcber Ihr Leben.<\/p>","protected":false},"excerpt":{"rendered":"<p>Lernen Sie, wie Sie Ollama auf Raspberry Pi installieren und konfigurieren, um Ihre KI-Modelle lokal auszuf\u00fchren. Vollst\u00e4ndiges Schritt-f\u00fcr-Schritt-Tutorial.<\/p>","protected":false},"author":1,"featured_media":28381,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[308],"tags":[],"class_list":["post-28379","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tutos"],"featured_image_src":{"landsacpe":["https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi-1140x445.png",1140,445,true],"list":["https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi-463x348.png",463,348,true],"medium":["https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi-300x169.png",300,169,true],"full":["https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi.png",1920,1080,false]},"jetpack_featured_media_url":"https:\/\/monraspberry.com\/wp-content\/uploads\/2025\/08\/Installer-Ollama-sur-Raspberry-Pi.png","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/posts\/28379","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/comments?post=28379"}],"version-history":[{"count":0,"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/posts\/28379\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/media\/28381"}],"wp:attachment":[{"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/media?parent=28379"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/categories?post=28379"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/monraspberry.com\/de\/wp-json\/wp\/v2\/tags?post=28379"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}