Wissen

KI-Glossar.

Begriffe rund um KI-Automation, verständlich erklärt — als Nachschlagewerk für Gespräche, Angebote und Recherche.

GEO (Generative Engine Optimization)

Optimierung von Inhalten für KI-Suchsysteme wie ChatGPT, Perplexity oder Gemini — damit eine Marke in KI-Antworten zitiert wird, nicht nur in der klassischen Google-Trefferliste.

GEO ergänzt klassische SEO. Während SEO Inhalte für Google-Suchergebnisse optimiert, geht es bei GEO darum, dass generative KI-Systeme die eigene Marke in ihren Antworten verstehen, zitieren und empfehlen.

Das verlangt strukturierte Inhalte, klare Expertenaussagen mit Quellen, semantisch saubere Texte und technische Autorität durch strukturierte Daten. Der Wandel ist real: Immer mehr Kaufentscheidungen starten in einem KI-Chat statt auf einer Suchergebnisseite.

Beispiel

Ein Steuerberater veröffentlicht klar strukturierte FAQs zur „Sofortabschreibung 2026". Fragt jemand ChatGPT nach österreichischer Sofortabschreibung, zieht das Modell die FAQ als Quelle heran — und der Steuerberater wird in der Antwort namentlich genannt.

KI-Agent

Software, die ein Ziel verfolgt, Zwischenschritte plant und externe Werkzeuge nutzt — ohne dass ein Mensch jeden Schritt vorgibt.

Ein KI-Agent ist mehr als ein Chatbot. Ein Chatbot antwortet auf eine Frage. Ein Agent verfolgt ein Ziel: Termine koordinieren, Leads recherchieren, eine Bestellung anstoßen — und entscheidet auf dem Weg dorthin, welche Schritte und welche Tools nötig sind.

Technisch besteht ein Agent meist aus einem LLM als „Denkzentrale" plus einer Menge angebundener Werkzeuge: E-Mail, CRM, Web-Scraping, Datenbank. Agenten arbeiten in einem klar abgegrenzten Aufgabenraum — vollständig autonome Agenten sind in produktiven Umgebungen weiterhin die Ausnahme, nicht die Regel.

Beispiel

Ein Lead-Agent bekommt morgens eine Stadt und Branche als Input. Er sucht passende Unternehmen, prüft deren Webseiten auf Schwachstellen, formuliert personalisierte Mails — und legt diese als Entwürfe ab, fertig zur Freigabe.

LLM (Large Language Model)

Großes Sprachmodell wie GPT-4, Claude oder Mistral — die Engine, die hinter den meisten KI-Anwendungen steckt und Text versteht und erzeugt.

Ein LLM ist ein Modell, das mit enormen Mengen Text trainiert wurde, um Sprache zu verstehen und sinnvolle Antworten zu erzeugen. Wenn man heute im Business-Kontext von „KI" spricht, meint man fast immer genau diese Modelle.

Bekannte Beispiele: GPT (OpenAI), Claude (Anthropic), Gemini (Google), Mistral (Frankreich, EU-Hosting möglich). LLMs allein lösen keine Geschäftsprobleme — sie müssen mit den richtigen Daten, Werkzeugen und Prozessen kombiniert werden. Genau das ist der Kern moderner KI-Automation.

Beispiel

Ein internes Wissens-Tool nutzt Claude als Antwort-Engine, kombiniert es per RAG mit Zugriff auf interne PDFs — und liefert Mitarbeiteranfragen in Sekunden statt Stunden.

RAG (Retrieval-Augmented Generation)

Technik, bei der ein LLM nicht aus dem Gedächtnis antwortet, sondern zuerst relevante Dokumente aus einer eigenen Wissensquelle abruft und seine Antwort darauf stützt.

Ein reines LLM kennt nur, was im Training enthalten war — eigene Firmendokumente, aktuelle Preislisten oder neue Verträge nicht. RAG löst das: Bei einer Anfrage werden zuerst passende Inhalte aus einer eigenen Datenquelle (PDFs, Wiki, Datenbank) abgerufen und dann gemeinsam mit der Frage an das Modell übergeben.

Die Antwort basiert dann auf echten Fakten, nicht auf der „Allgemeinbildung" des Modells. RAG ist heute der Standard für Chatbots mit eigenen Inhalten — und einer der wichtigsten Bausteine für DSGVO-konforme Setups, weil sensible Daten nicht ins Modell trainiert werden müssen.

Beispiel

Ein Support-Bot eines Online-Shops wird per RAG an die Produkt-Datenbank und die FAQ angebunden. Fragt ein Kunde nach Versandkosten nach Slowenien, holt der Bot die aktuelle Versandtabelle aus der Datenbank und formuliert daraus die Antwort — statt zu raten.

n8n

Open-Source-Plattform für Workflow-Automation. Vergleichbar mit Zapier oder Make, aber selbst hostbar — wichtig für DSGVO-Konformität und Kostenkontrolle bei vielen Abläufen.

n8n ist ein visuelles Werkzeug, das Abläufe zwischen Anwendungen verknüpft: E-Mail kommt rein → KI klassifiziert sie → Antwort wird vorbereitet → Termin im Kalender geblockt. Ähnlich wie Zapier oder Make, aber als Open-Source-Lösung selbst hostbar.

Das macht n8n attraktiv für Unternehmen, die ihre Daten nicht in eine US-Cloud schicken wollen, viele Workflows parallel betreiben oder komplexe KI-Pipelines mit eigenen Knoten und Code-Blöcken bauen müssen. n8n ist das technische Rückgrat vieler KI-Automationen — auch in den meisten Projekten von KI-Navigator.

Beispiel

Eine Marketing-Agentur baut mit n8n einen Content-Workflow: Kunde liefert ein Thema, ein KI-Knoten erzeugt 30 Social-Media-Postings, ein zweiter Knoten generiert dazu Bilder, ein dritter legt alles als Entwürfe im Redaktionssystem ab.

Prompt Engineering

Die strukturierte Vorgehensweise, einem LLM Anweisungen so präzise zu formulieren, dass es zuverlässig gute Ergebnisse liefert — entscheidend für stabile KI-Workflows im Geschäftseinsatz.

Wer einem LLM nur sagt „schreib einen Text über X", bekommt austauschbare Ergebnisse. Prompt Engineering bedeutet, einem Modell ein präzises Briefing zu geben: Rolle, Kontext, Format, Beispiele, Einschränkungen.

In produktiven KI-Systemen ist der Prompt kein Text, sondern ein Template mit dynamischen Variablen — und er entscheidet maßgeblich über Qualität, Konsistenz und Verlässlichkeit der Ausgabe. Gute Prompts werden versioniert, getestet und über die Zeit verbessert, ähnlich wie Code. „Vibes-basierte" Prompts skalieren nicht.

Beispiel

Statt „erstelle einen Lead-Bericht" definiert ein guter Prompt: „Du bist Sales-Analyst für KMU im DACH-Raum. Eingabe ist eine Website. Erstelle einen Bericht in drei Abschnitten: Geschäftsmodell, Schwachstellen, mögliche KI-Hebel. Maximal 200 Wörter. Wenn die Website keine Aussage erlaubt, schreibe ‚nicht ermittelbar'." Das Ergebnis ist verlässlich genug für tausend Leads pro Woche.

KI & DSGVO

Sobald KI personenbezogene Daten verarbeitet, greift die DSGVO. Entscheidend sind Hosting-Ort, Auftragsverarbeitungsvertrag und ob die Daten zum Training genutzt werden.

Sobald KI personenbezogene Daten verarbeitet — E-Mails, Kundennamen, Supportanfragen — greift die DSGVO. Drei Punkte sind dann ausschlaggebend: Wo wird das Modell betrieben (EU-Hosting bevorzugt), gibt es einen Auftragsverarbeitungsvertrag (AVV) mit dem Anbieter, und werden die Daten zum Modelltraining verwendet (oft unerwünscht).

Anbieter wie Mistral oder selbst gehostete Open-Source-Modelle erleichtern DSGVO-Konformität, weil sie in der EU laufen und klare Verträge bieten. US-Modelle (OpenAI, Anthropic) lassen sich nutzen, wenn keine personenbezogenen Daten übermittelt werden oder ein Enterprise-Vertrag mit EU-Datenresidenz besteht. Mit dem EU AI Act kommen zusätzliche Pflichten je nach Risikoklasse der Anwendung — Compliance gehört von Anfang an in das Projekt, nicht nachträglich.

Beispiel

Ein Praxis-Tool für Terminanfragen läuft auf einer eigenen n8n-Instanz in Frankfurt, nutzt Mistral mit EU-AVV und protokolliert ausschließlich pseudonymisierte Daten. So bleibt der Workflow rechtssicher, auch wenn täglich hunderte Patientenanfragen durchlaufen.

Multi-Agent-System

Setup aus mehreren spezialisierten KI-Agenten, die zusammenarbeiten — jeder mit klarer Rolle, statt einen Allzweck-Agenten alles auf einmal versuchen zu lassen.

Ein einzelner Agent, der alles erledigt, wird unzuverlässig: Er recherchiert, schreibt, prüft und versendet — und macht in jedem Schritt kleine Fehler, die sich addieren. Ein Multi-Agent-System teilt die Arbeit auf: Ein Agent recherchiert, ein zweiter strukturiert, ein dritter formuliert, ein vierter prüft.

Jeder Agent hat einen klaren Auftrag, eigene Werkzeuge und einen Prompt, der ausschließlich auf seine Rolle zugeschnitten ist. Die Qualität steigt deutlich, Fehler werden lokal isolierbar — und ein Mensch kann an genau einer Stelle eingreifen, ohne den ganzen Workflow umzuwerfen.

Beispiel

Ein Content-Workflow nutzt vier Agenten: Recherche-Agent (sammelt Quellen), Outline-Agent (erstellt Gliederung), Schreib-Agent (formuliert), Lektorat-Agent (prüft Fakten und Stil). Das Ergebnis ist konsistenter als bei einem einzigen „Generalisten" und im Fehlerfall klar reparierbar.

Diese Begriffe live im Einsatz sehen?

Im Kennenlerngespräch übersetzen wir gemeinsam die richtigen Begriffe in einen konkreten Workflow für Ihr Unternehmen.

Kennenlerngespräch vereinbaren →