Lokale KI im Smart Home klingt nach einem Bastelprojekt für Wochenenden mit zu viel Kaffee. Ich habe mir das Ganze in den letzten Wochen aber wirklich intensiv angeschaut und in diesem dritten Teil der Reihe zeige ich dir, was du mit Ollama und Home Assistant tatsächlich anfangen kannst, wenn alles erst mal läuft. Geräte steuern, Sensoren abfragen, Einkaufslisten befüllen, alles per Chat oder Sprache, alles lokal, ohne Cloud.
Was du vorher eingerichtet haben solltest
Dieser Artikel baut auf den ersten beiden Teilen auf. Wenn du Ollama noch nicht installiert und mit Home Assistant verbunden hast, fang dort an. In Teil 1 und Teil 2 habe ich gezeigt, wie du die Hardware aufsetzt und Ollama als Integration in Home Assistant einbindest. Einen ausführlichen Guide dazu findest du auch auf alles-automatisch.de.
Wichtig ist noch ein Detail, das ich im letzten Teil vergessen hatte zu erwähnen: Damit du Ollama als Conversation Agent nutzen kannst, musst du in Home Assistant oben im Assist-Fenster einmal auf den Agenten-Selektor klicken und dort Ollama auswählen. Das klingt banal, aber ohne diesen Schritt landet deine Anfrage einfach beim Standard-Assistenten.
Sensoren abfragen und Zustände ausgeben lassen
Der einfachste Einstieg ist das Abfragen von Sensorwerten. Ich habe Ollama gefragt, wie warm es im Büro ist, und er hat mir innerhalb weniger Sekunden die aktuelle Temperatur aus dem Sensor ausgelesen und als normale Antwort zurückgegeben. Das klingt unspektakulär, ist aber eigentlich ziemlich praktisch, weil du eben nicht mehr selbst durchs Dashboard scrollen musst.
Was du dabei beobachten wirst: Sobald du eine Anfrage schickst, springt der Stromverbrauch des Rechners kurz hoch. Bei mir geht der Mac Mini M4 dann auf rund 46 Watt, fällt danach aber wieder auf 6 Watt zurück. Im Verhältnis zu anderer Netzwerkhardware ist das wirklich zu vernachlässigen. Ein Mac Mini M4 ist für so einen Einsatz übrigens wahnsinnig gut geeignet, weil er lautlos läuft, auch unter Last. Ich habe die Lüfter noch nie gehört. Wenn du lieber eine günstigere Alternative willst, schau dir den Raspberry Pi 5 oder einen Intel NUC an, je nachdem was du zu Hause hast oder bereit bist auszugeben.
Geräte per Chat steuern
Das ist der Teil, den ich am spannendsten finde. Du kannst Ollama direkt sagen, er soll ein Licht einschalten, und er tut es. Bei mir hat der erste Versuch mit dem Strahler im Esszimmer nicht geklappt, was daran lag, dass das Modell den Kontext nicht sauber verarbeitet hat. Beim zweiten Versuch hat es dann funktioniert, auch über die Spracheingabe.
Das zeigt gut, wo aktuell noch die Grenzen liegen. Wenn du ein zu kleines Modell wählst oder den Kontext zu knapp einstellst, bekommst du manchmal kryptische Antworten statt einer sauberen Ausführung. Das ist kein Fehler im eigentlichen Sinn, sondern einfach eine Eigenschaft der kleinen Modelle. Wer mehr Zuverlässigkeit will, braucht ein größeres Modell und entsprechend mehr Hardware. Alle verfügbaren Modelle findest du in der Ollama Model Library.
Einkaufslisten und andere Integrationen
Ein Anwendungsfall, der mir wirklich gut gefällt: du sagst einfach "Setze Bier auf die Einkaufsliste" und Ollama ergänzt den Eintrag direkt in deiner Home Assistant Shopping List. Das klingt nach einer Kleinigkeit, aber im Alltag ist das wahnsinnig praktisch. Gerade wenn du gerade kochst und beide Hände voll hast, willst du nicht erst dein Smartphone entsperren und irgendwo tippen.
Das funktioniert genauso wie du es von Siri oder Alexa kennst, nur eben komplett lokal. Keine Subscription, keine Daten in der Cloud, kein Account bei OpenAI oder irgendwo sonst. Das ist für mich der eigentliche Pluspunkt an dieser ganzen Geschichte.
Was realistisch funktioniert und was nicht
Ich will hier ehrlich sein: Es ist mehr Aufwand als eine Cloud-Lösung. Du musst dich mit der Hardware beschäftigen, das richtige Modell auswählen, den Kontext sinnvoll konfigurieren und damit leben, dass kleinere Modelle manchmal daneben liegen. Das ist die Kehrseite der lokalen Kontrolle.
Was gut funktioniert: einfache Sensorabfragen, einzelne Schaltbefehle, Listeneinträge hinzufügen. Was an den Grenzen kratzt: komplexere Anfragen wie das Vorschlagen oder Erstellen von Automationen. Dafür reichen kleine Modelle nicht aus, das sprengt den Kontext. Mit einem größeren Modell auf entsprechender Hardware ist aber auch das drin.
Wie viele Entitäten du freigeben solltest und wie du das Ganze sinnvoll testest, habe ich im Guide nochmal ausführlich aufgeschrieben, inklusive Troubleshooting-Abschnitt für den Fall, dass bei dir etwas nicht wie erwartet läuft.
Mein Fazit nach dieser Reihe
Lokal ist cool. Ich meine das ernst. Die Abhängigkeit von externen Diensten fällt komplett weg, du kannst das Modell auf deine Bedürfnisse zuschneiden und der laufende Verbrauch ist auf einer geeigneten Hardware wirklich minimal. Der Einstieg kostet Zeit, das stimmt. Aber wenn es erst mal läuft, hast du etwas, das dir wirklich gehört.
Hast du Ollama schon bei dir im Einsatz? Oder überlegst du noch, welche Hardware du dafür nimmst? Schreib es gerne ins Community-Forum, da bin ich auch selbst regelmäßig unterwegs und helfe gerne weiter.
