Künstliche Intelligenz

09.02.2026

KI-KOLUMNE: KI am eigenen Rechner – lokale Sprachmodelle

Die Diskussion um Datenschutz bei KI-Nutzung dreht sich meist um Cloud-Dienste wie ChatGPT oder Claude: Welche Daten dürfen eingegeben werden? Welche Verträge sind nötig? Und wohin wandern die Informationen? Dabei gerät eine dritte Option leicht aus dem Blick – eine, die inzwischen überraschend alltagstauglich ist: Künstliche Intelligenz, die vollständig auf dem eigenen Rechner läuft.

Was bedeutet „lokale KI“?

Bei klassischen KI-Diensten werden Eingaben an externe Server übertragen, dort verarbeitet und als Antwort zurückgesendet.
Lokale KI funktioniert anders: Das Sprachmodell läuft direkt auf dem eigenen Gerät. Die Daten verlassen den Rechner nicht – auch nicht verschlüsselt.

Datenschutzvorteile auf einen Blick

  • Keine Datenübertragung ins Internet
  • Keine Nutzung durch Dritte
  • Kein Risiko geänderter Nutzungsbedingungen
  • Kein Auftragsverarbeitungsvertrag nötig

Besonders sensibel arbeitende Stellen profitieren davon, etwa bei:

  • Entwürfen für interne Dokumente
  • Vorbereitungen von Bescheiden und Stellungnahmen
  • Textanalysen ohne vorherige Anonymisierung
  • Brainstorming in vertraulichen Themenfeldern

Natürlich ersetzt auch lokale KI nicht die Pflicht zu sorgfältigem Umgang mit personenbezogenen Daten – sie reduziert jedoch technische Risiken erheblich.

Welche Hardware wird benötigt?

Lokale KI-Modelle benötigen spürbare Rechenleistung. Ein gewöhnlicher Bürorechner reicht dafür in der Regel nicht aus. Entscheidend ist eine moderne Grafikkarte (GPU). In vielen Haushalten steht die passende Hardware bereits – oft ohne dass man es weiß. Ein Gaming-Computer, wie er häufig von Kindern oder Enkeln genutzt wird, erfüllt die Anforderungen meist problemlos. Grafikkarten wie die NVIDIA RTX 3060, 3070 oder 4060 bieten genau die Leistung, die lokale KI-Modelle benötigen, und machen den Einstieg damit wesentlich einfacher, als man vermuten würde.

Die technischen Anforderungen im Überblick

KomponenteMinimumEmpfohlen
Grafikkarte (GPU)NVIDIA mit 8 GB SpeicherNVIDIA mit 12+ GB Speicher
Arbeitsspeicher (RAM) 16 GB32 GB
Festplatte20 GB frei (SSD empfohlen)50+ GB frei
BetriebssystemWindows 10/11, macOS, Linux

Und wenn keine Gaming-Grafikkarte vorhanden ist?

Lokale KI lässt sich grundsätzlich auch auf normalen Büro- oder Heimcomputern nutzen. Allerdings deutlich langsamer – statt 30–50 Wörtern pro Sekunde oft nur 3–5. Für erste Versuche ist das akzeptabel, für den Arbeitsalltag jedoch kaum praktikabel.

Gute Nachricht für Apple‑Nutzer

Moderne Macs mit M2-, M3- oder M4-Chips eignen sich überraschend gut für lokale KI. Ein MacBook Air M4 oder Mac Mini M4 bewältigt kleinere Modelle problemlos, während MacBook‑Pro-Geräte mit M4 Pro oder M4 Max sogar größere Modelle flüssig verarbeiten.

LM Studio: Der einfache Einstieg

Die Software, die lokale KI für Normalsterbliche zugänglich macht, heißt LM Studio. Sie ist kostenlos, läuft auf Windows, Mac und Linux, und kommt mit einer grafischen Oberfläche – keine Programmierung nötig.

Schritt 1: Download und Installation

  1. Öffnen Sie lmstudio.ai in Ihrem Browser
  2. Laden Sie die Version für Ihr Betriebssystem herunter (Windows, Mac oder Linux)
  3. Installieren Sie das Programm wie jede andere Software

Beim ersten Start fragt LM Studio, welchen Nutzer-Typ Sie bevorzugen. Wählen Sie „Power User“, das gibt Ihnen mehr nützliche Optionen.

Schritt 2: Ein Modell herunterladen

  1. Klicken Sie auf die Lupe (Suche) in der linken Leiste
  2. Suchen Sie nach einem Modell, z.B. „Mistral 7B“ oder „Qwen3 8B“

  3. Wählen Sie eine Version mit „Q4“ im Namen (das ist eine komprimierte Version, die weniger Speicher braucht)
  4. Klicken Sie auf Download

Achtung: Die Modelle sind groß. Ein kleines Modell hat 4-5 GB, größere 10-30 GB. Der Download kann je nach Internetverbindung eine Weile dauern.

Schritt 3: Los geht’s – Ihr erster Chat

  1. Wechseln Sie zum Chat-Bereich (Sprechblase in der linken Leiste)
  2. Wählen Sie oben das heruntergeladene Modell aus
  3. Tippen Sie Ihre erste Frage ein – zum Beispiel: „Schreib mir eine höfliche Absage für eine Terminanfrage“

Die Antwort erscheint direkt – und sie wurde komplett auf Ihrem Rechner erzeugt. Kein Internet nötig, keine Daten unterwegs.

Wofür sind lokale Modelle geeignet?

  • Gut geeignet:

    • Umformulieren, Kürzen und Verbessern von Texten
    • Entwürfe für E-Mails und Schreiben
    • Zusammenfassungen
    • Ideenfindung
    • Übersetzungen und Sprachkorrekturen
  • Eingeschränkt geeignet:

    • Komplexe Fachanalysen
    • Aufgaben, die aktuelles Weltwissen benötigen
    • Sehr umfangreiche Textmengen
    • Hochanspruchsvolle Aufgaben, wie sie modernste Cloud-Modelle leisten

Für wen lohnt sich lokale KI?

  • Sinnvoll für:

    • IT-affine Mitarbeitende
    • Kommunen mit hohen Datenschutzanforderungen
    • Personen oder Dienststellen mit leistungsfähiger Hardware
    • Gemeindeverbände, die langfristig eigene KI-Infrastruktur planen
  • Weniger geeignet für:

    • Standard-Büroarbeitsplätze
    • Nutzer, die eine sofort einsatzbereite Lösung ohne Einrichtung erwarten
    • Aufgaben, die Spitzenmodelle wie GPT-5 erfordern

    Im Alltag bleibt eine datenschutzkonforme Business-Version großer Anbieter meist die praktikable Wahl. Doch lokale KI bietet eine wertvolle Ergänzung – und einen Blick in die Zukunft einer digitalen Verwaltung, die KI souverän und eigenständig betreibt.

Kleine Hausaufgabe für diese Woche

Falls Sie zuhause einen Gaming-PC haben (oder jemanden kennen, der einen hat): Installieren Sie LM Studio und laden Sie ein kleines Modell herunter. Stellen Sie der KI eine einfache Frage aus Ihrem Arbeitsalltag – etwa „Formuliere eine höfliche Erinnerung an einen säumigen Antragsteller“. Vergleichen Sie das Ergebnis mit dem, was ChatGPT liefern würde.

Kein Gaming-PC vorhanden? Kein Problem. Dann ist die Hausaufgabe: Fragen Sie in Ihrer IT-Abteilung oder beim Gemeindeverband, ob lokale KI-Lösungen bereits ein Thema sind. Oft laufen im Hintergrund bereits Überlegungen, von denen man nichts mitbekommt.

KI KOMPAKT

Lokale KI: Das Wichtigste auf einen Blick

Was ist lokale KI? Sprachmodelle, die direkt auf Ihrem Computer laufen – ohne Internet, ohne Cloud, ohne dass Daten Ihren Rechner verlassen.

Der Datenschutz-Vorteil: Maximale Kontrolle. Keine Nutzungsbedingungen, keine Frage ob Daten für Training verwendet werden, keine Server in den USA. Ihre Daten bleiben auf Ihrer Festplatte.

Hardware-Voraussetzungen:

  • Ideal: Gaming-PC mit NVIDIA-Grafikkarte (RTX 3060 oder besser, mindestens 8 GB Grafikspeicher)
  • Auch geeignet: Neuere MacBooks oder Mac Minis mit M2/M3/M4-Chip
  • Möglich, aber langsam: Normale Büro-PCs ohne dedizierte Grafikkarte

Software-Empfehlung: LM Studio

  • Kostenlos, keine Programmierung nötig
  • Download: lmstudio.ai
  • Einfache Installation, grafische Oberfläche
  • Läuft auf Windows, Mac und Linux

Empfohlene Einstiegsmodelle:

  • Mistral 7B (gut für deutsche Texte, ~4-5 GB)
  • Qwen3 8B (mehrsprachig, sehr aktuell, ~5-6 GB)
  • Modelle mit „Q4“ im Namen sind komprimiert und brauchen weniger Speicher

Was lokale Modelle können: Texte umformulieren, einfache Briefe/E-Mails entwerfen, Zusammenfassungen, Brainstorming, Übersetzungen, Grammatik-Korrekturen

Was sie (noch) nicht so gut können: Komplexe Analysen auf GPT-5-Niveau, Aufgaben die aktuelles Wissen erfordern (kein Internetzugang), sehr lange Texte verarbeiten

Fun-Fact: Der Gaming-Computer Ihrer Kinder ist wahrscheinlich besser für KI geeignet als der Büro-PC. Gaming-Grafikkarten sind genau die Hardware, die lokale KI braucht.

Für wen ist das sinnvoll?

  • IT-affine Mitarbeiter mit Interesse an maximaler Datenkontrolle
  • Experimentierfreudige mit Gaming-PC zuhause
  • Gemeindeverbände, die über zentrale lokale Lösungen nachdenken
  • Alle, die verstehen wollen, wie KI technisch funktioniert

Pragmatische Einschätzung: Für den Gemeinde-Alltag bleibt eine Business-Version (ChatGPT Team/Enterprise, Claude Team) mit AV-Vertrag meist die praktischere Lösung. Aber: Lokale KI ist eine wertvolle Ergänzung und ein Blick in die Zukunft, in der solche Lösungen Standard werden könnten.

Künstliche Intelligenz

09.02.2026

KI-KOLUMNE: KI am eigenen Rechner – lokale Sprachmodelle

– I.WEIPPL (Quelle: XY, entgeltliche Einschaltung)

DOWNLOADS
LINKS

Klicke hier, um Ihren eigenen Text einzufügen

© Copyright - Kommunalnet