KI im Smart Home: Fragen & Antworten

Alles was du über den Einsatz von künstlicher Intelligenz im Smart Home wissen musst — aus echtem Praxiseinsatz, nicht aus der Theorie.

🤖 Grundlagen
Was bedeutet KI im Smart Home eigentlich?
KI im Smart Home bedeutet, dass dein Zuhause nicht nur auf feste Regeln reagiert (wenn Tür auf → Licht an), sondern Muster erkennt und eigene Entscheidungen trifft. Beispiele: Anomalie-Erkennung bei Energieverbrauch, automatische Bilderkennung an der Türklingel, oder ein Sprachassistent der natürliche Sprache versteht. In meinem Setup nutze ich dafür lokale LLMs (Ollama), n8n Workflows und Home Assistant als Basis.
Brauche ich Programmierkenntnisse für KI im Smart Home?
Für den Einstieg: Nein. Home Assistant hat eine grafische Oberfläche für Automationen, und Tools wie n8n ermöglichen KI-Workflows per Drag-and-Drop. Für fortgeschrittene Setups (eigene Modelle, Custom Components) sind Grundkenntnisse in YAML und Python hilfreich — aber kein Muss. Die meisten meiner Tutorials zeigen Copy-Paste-fertige Lösungen.
Was ist der Unterschied zwischen Automatisierung und KI?
Automatisierung folgt festen Regeln: „Wenn es 22 Uhr ist, schalte das Licht aus." KI lernt und entscheidet: „Es scheint niemand mehr im Wohnzimmer zu sein, soll ich das Licht dimmen?" Der Übergang ist fließend. In der Praxis kombiniert man beides — KI für die Entscheidung, Automatisierung für die Ausführung.
Was kostet ein KI-Smart-Home Setup?
Ein Basis-Setup kann bei unter 100€ starten: Raspberry Pi 4/5 für Home Assistant (~60€) + kostenlose Software. Für lokale KI brauchst du etwas mehr Power: ein Mini-PC mit 16GB RAM (~150€) reicht für Ollama + kleinere Modelle. Mein produktives Setup läuft auf einem Hetzner Server (~15€/Monat) für n8n + KI-Workflows, und einem Mac Mini für lokale Aufgaben.
🔒 Lokale KI
Kann ich KI komplett lokal betreiben, ohne Cloud?
Ja, absolut. Mit Ollama laufen Modelle wie Llama 3, Mistral oder Phi lokal auf deiner Hardware. Home Assistant's eigener Sprachassistent (Assist) funktioniert komplett offline mit Whisper (STT) und Piper (TTS). In meinem Setup nutze ich zusätzlich Presidio für PII-Erkennung, damit sensible Daten das Haus nie verlassen — auch nicht versehentlich.
Welche Hardware brauche ich für lokale LLMs?
Kommt auf das Modell an: Kleine Modelle (Phi-3, Gemma 2B): 8GB RAM, jeder halbwegs moderne PC. Mittlere Modelle (Llama 3 8B, Mistral 7B): 16GB RAM, am besten mit GPU. Große Modelle (Llama 3 70B): 64GB+ RAM oder dedizierte GPU mit 24GB VRAM. Für die meisten Smart Home Aufgaben reichen die kleinen bis mittleren Modelle völlig aus.
Was ist Ollama und wie setze ich es auf?
Ollama ist ein Tool das LLMs lokal ausführt — wie Docker für KI-Modelle. Installation: curl -fsSL https://ollama.com/install.sh | sh, dann ollama pull llama3. Danach hast du eine lokale API unter http://localhost:11434 die du in n8n oder Home Assistant einbinden kannst. Ich nutze Ollama für Paket-Erkennung, Anomalie-Analyse und als Backend für Nova.
🎙️ Sprachsteuerung
Wie funktioniert ein lokaler Sprachassistent mit Home Assistant?
Home Assistant hat eine eingebaute Assist Pipeline: Sprache → Text (Whisper/faster-whisper), Textverarbeitung (Conversation Agent), Text → Sprache (Piper). Alles läuft lokal. Du brauchst ein Mikrofon-Gerät wie den ESP32-S3 BOX oder ein selbstgebautes ESPHome-Device mit I2S-Mikrofon. In meinem Setup nutze ich zusätzlich ein Wyoming Satellite auf dem Voice PE.
Ist ein lokaler Sprachassistent so gut wie Alexa/Google?
Ehrlich: Noch nicht ganz. Die Spracherkennung (Whisper) ist exzellent. Aber das Verständnis natürlicher Sprache ist noch eingeschränkter als bei Alexa/Google — man muss präziser formulieren. Die Entwicklung ist aber rasant: mit einem lokalen LLM als Conversation Agent wird es deutlich besser. Für Smart Home Befehle („Licht im Wohnzimmer auf 50%") funktioniert es bereits zuverlässig.
KI-Automationen
Welche Automationen lassen sich mit KI verbessern?
Praktisch alle, die Kontext brauchen: Anwesenheitserkennung (BLE Tracking + Pattern Learning statt nur Bewegungsmelder), Energieoptimierung (Verbrauchsmuster erkennen, Anomalien melden), Sicherheit (Kamera-Bilderkennung: Person vs. Katze vs. Lieferant), Komfort (Lichtszenen basierend auf Tageszeit + Aktivität). In meinem Setup erkennt Nova z.B. automatisch Paketzustellungen per Kamerabild und legt sie im Inventar an.
Was ist n8n und warum nutzt du es statt Node-RED?
n8n ist eine Open-Source Workflow-Automatisierungsplattform mit visueller Oberfläche. Im Vergleich zu Node-RED hat n8n native KI-Nodes (OpenAI, Ollama, LangChain), bessere Error-Handling-Flows, und eine klarere Struktur für komplexe Workflows. Ich betreibe 30+ n8n Workflows für alles von Telegram-Bot-Routing über Paket-Tracking bis zur Content-Pipeline. n8n läuft bei mir auf einem Hetzner VPS.
Wie baut man einen KI-gestützten Telegram Bot für sein Smart Home?
Mein Bot „Nova" besteht aus: 1) Telegram Bot API (via BotFather), 2) n8n als Workflow-Engine, 3) einem Router-Workflow der Nachrichten klassifiziert (Foto → Bilderkennung, Text → Intent Detection, Sprache → STT), 4) Sub-Workflows für spezifische Aufgaben (Inventar, Einkaufsliste, Smart Home Steuerung). Der Router nutzt ein LLM um den Intent zu erkennen und an den richtigen Sub-Workflow weiterzuleiten.
🔧 Hardware
Welcher Mini-PC eignet sich am besten für lokale KI?
Für Einsteiger: Intel N100 Mini-PC (z.B. Beelink EQ12, ~150€) mit 16GB RAM — reicht für Ollama mit kleinen Modellen. Für Fortgeschrittene: Mac Mini M2/M4 — die Neural Engine ist hervorragend für KI-Inference. Für Heavy Workloads: NVIDIA Jetson Orin Nano oder ein PC mit RTX 3060/4060 (12GB VRAM). Ich nutze einen Mac Mini M4 als lokalen AI-Server.
Kann ein ESP32 KI-Aufgaben übernehmen?
Direkt auf dem ESP32: nur sehr einfache Aufgaben (z.B. Wake-Word-Detection mit microWakeWord in ESPHome). Für echte KI nutzt man den ESP32 als Sensor/Aktor und lässt die Verarbeitung auf dem Server laufen. Beispiel: ESP32 nimmt Kamerabild auf → sendet es an Home Assistant → HA schickt es an Ollama/Frigate zur Erkennung. Der ESP32-S3 hat allerdings genug Power für Edge-AI wie akustische Drohnenerkennung.
🛡️ Datenschutz
Wie schütze ich meine Daten wenn ich KI im Smart Home nutze?
Drei Säulen: 1) Lokal first — Ollama, Whisper, Piper laufen auf deiner Hardware, keine Cloud nötig. 2) PII-Scrubbing — ich nutze Microsoft Presidio um persönliche Daten (Namen, Adressen, Telefonnummern) automatisch zu entfernen bevor sie an externe APIs gehen. 3) Netzwerk-Segmentierung — IoT-Geräte laufen in einem eigenen VLAN ohne Internet-Zugang. So kann ein kompromittiertes Smart-Home-Gerät keine Daten nach außen senden.
Hört mein Sprachassistent immer zu?
Bei lokalen Assistenten (Home Assistant Assist): Das Wake Word wird auf dem ESP32 selbst erkannt (microWakeWord) — es werden erst Daten übertragen wenn das Keyword erkannt wurde. Und auch dann nur an deinen eigenen Server. Bei Cloud-Assistenten (Alexa, Google): Technisch ja, aber offiziell wird nur nach dem Wake Word aufgezeichnet. Der Unterschied: bei der lokalen Lösung kannst du es selbst verifizieren — bei Cloud-Lösungen musst du dem Anbieter vertrauen.
Keine Fragen gefunden. Stell mir deine Frage per Telegram!

Deine Frage nicht dabei?

Schreib mir — ich beantworte jede Frage und nehme sie in die Sammlung auf.

Frage stellen

Nichts mehr verpassen

Neue Artikel, Projekte und Podcast-Episoden direkt per Email. Kein Spam, jederzeit abbestellbar.

Oder folge mir auf:

Spotify YouTube