KI Tools DE LogoKI Tools DE

KI Glossar

Die wichtigsten KI-Begriffe verständlich auf Deutsch erklärt. Kein Jargon, keine Marketing-Sprache, einfach was die Begriffe wirklich bedeuten. 36 Begriffe, regelmäßig aktualisiert.

AGI (Artificial General Intelligence)

Hypothetische KI mit menschlichem kognitivem Vermögen auf allen Aufgabengebieten.

AGI bezeichnet ein KI-System, das jede intellektuelle Arbeit erledigen kann, die auch ein Mensch leistet. 2026 existiert AGI noch nicht, einige Forscher behaupten jedoch, dass moderne Modelle wie GPT-5 oder Claude Opus auf bestimmten Benchmarks nahe daran sind. Der Unterschied zu heutigen LLMs: AGI könnte autonom lernen, über Jahre planen und ohne Gedächtnisverlust zwischen Sitzungen arbeiten.

AI Agent

KI-System, das selbstständig Aufgaben in mehreren Schritten ausführt.

Ein Agent kann Tools nutzen (Browser, APIs, Code-Ausführung), Pläne machen und sich selbst korrigieren. Beispiele: Claude Code für Software-Engineering, OpenAIs Operator für Web-Browsing, Devin für End-to-End Coding. Agents stehen 2026 noch am Anfang, machen aber viele Routineaufgaben überflüssig.

AI Alignment

Forschungsfeld, das dafür sorgt, dass KI tut, was Menschen wollen.

Alignment ist die Herausforderung, KI-Systeme so zu gestalten, dass sie nach menschlichen Werten und Absichten handeln. Anthropic (Claude) konzentriert sich stark auf Alignment-Forschung, ebenso das Superalignment-Team bei OpenAI. Praktisch heißt das: Die KI lehnt schädliche Anfragen ab, erkennt Kontext und agiert bei Unsicherheit vorsichtig.

API (Application Programming Interface)

Schnittstelle, mit der Software mit anderer Software spricht.

Eine KI-API erlaubt Ihnen, programmatisch Anfragen an ein Modell zu senden statt eine Web-Oberfläche zu nutzen. OpenAI, Anthropic, Google und Mistral haben alle APIs. Sie zahlen pro Token (Input und Output). Wer eine eigene App auf einem LLM bauen will, geht über die API, nicht über die Chat-Oberfläche.

ASI (Artificial Super Intelligence)

Theoretische KI, die menschliche Fähigkeiten in allen Bereichen übertrifft.

ASI ist ein hypothetischer nächster Schritt nach AGI: eine KI, die in jeder Aufgabe klüger ist als jeder Mensch, einschließlich wissenschaftlicher Forschung, Kreativität und Strategie. Diskussionen über ASI sind meist spekulativ und drehen sich um existenzielle Risiken und Alignment.

Berufsausbildung

Das deutsche duale Ausbildungssystem aus Theorie und Praxis im Betrieb.

Die Berufsausbildung kombiniert Berufsschule mit praktischer Arbeit im Ausbildungsbetrieb über meist 3 Jahre. KI verändert die Ausbildung in zwei Richtungen: zum einen entstehen neue Ausbildungsinhalte rund um KI-Anwendung (etwa für Fachinformatiker und Kaufleute für Digitalisierungsmanagement), zum anderen nutzen Auszubildende Tools wie ChatGPT für die Prüfungsvorbereitung und Berichtshefte. Die IHK passt Curricula schrittweise an.

Bundesministerium für Digitales und Verkehr

Bundesministerium, das die deutsche Digitalpolitik samt KI-Strategie verantwortet.

Das Bundesministerium für Digitales und Verkehr (BMDV) koordiniert die KI-Strategie der Bundesregierung. Themen: Förderung des Mittelstands bei der KI-Adoption, Aufbau der KI-Infrastruktur, Umsetzung des EU AI Act und Aufbau von KI-Fabriken (Hammer-Initiative). Wichtig für Unternehmen, die Fördergelder oder DSGVO-Leitfäden für KI suchen.

Chain oder Thought

Prompt-Technik, bei der Sie die KI auffordert, schrittweise zu denken, bevor sie antwortet.

Chain oder Thought (CoT) verbessert die Genauigkeit dramatisch, besonders bei Mathematik und Logik. Statt direkt eine Antwort zu fragen, schreiben Sie Denken Sie Schritt für Schritt nach. Das Modell zeigt seinen Gedankengang und kommt seltener zu falschen Schlüssen. 2026 ist diese Technik in Modelle wie o1 und Claude eingebaut.

Computer Vision

KI, die Bilder und Videos analysiert und versteht.

Computer Vision umfasst Objekterkennung, Gesichtserkennung, OCR (Texterkennung in Bildern) und Bildklassifizierung. Multimodale LLMs verbinden Vision mit Sprache: Sie können Diagramme erklären, Verkehrsschilder lesen oder den Inhalt eines Fotos beschreiben. Anwendungen reichen von medizinischer Bildgebung bis zum autonomen Fahren.

Constitutional AI

Anthropics Trainingsmethode, bei der eine KI sich anhand schriftlicher Prinzipien selbst korrigiert.

Constitutional AI ist Anthropics Antwort auf RLHF. Statt allein menschliche Bewerter zu nutzen, bekommt das Modell eine Verfassung mit Prinzipien (etwa Sei hilfreich, sei harmlos) und kritisiert seine eigenen Antworten daran. Das macht Claude bekannt für sicheres und transparentes Verhalten.

Datenschutzbeauftragter (DSB)

Verantwortlicher für die DSGVO-Konformität in Ihrem Unternehmen.

Der DSB ist Pflicht für viele deutsche Unternehmen ab 20 Mitarbeitern, die personenbezogene Daten regelmäßig verarbeiten. Beim Einsatz von KI-Tools muss der DSB Auftragsverarbeitungsverträge prüfen, Datenschutz-Folgenabschätzungen (DSFA) durchführen und die Wahl zwischen US-Cloud-Modellen und EU-/Deutschland-gehosteten Alternativen begleiten. Wer ChatGPT Enterprise oder Aleph Alpha einführt, geht meist über den DSB.

Diffusion Model

KI-Architektur hinter den meisten Bildgeneratoren.

Diffusion Models lernen, schrittweise Rauschen aus einem Bild zu entfernen. Bei der Generierung beginnen sie mit reinem Rauschen und entfernen Schritt für Schritt zum gewünschten Bild. Stable Diffusion, Midjourney, DALL-E 3 und Flux nutzen alle diese Technik. Schneller als ältere GAN-Ansätze.

DSGVO (Datenschutz-Grundverordnung)

Europäisches Datenschutzgesetz, das auch beim Einsatz von KI-Tools gilt.

Die DSGVO regelt seit 2018, wie Unternehmen personenbezogene Daten verarbeiten. Beim Einsatz von KI-Tools ist sie zentral: ChatGPT-Eingaben mit Kundendaten brauchen einen Auftragsverarbeitungsvertrag (AVV), Mitarbeiterdaten dürfen nicht ohne Rechtsgrundlage in US-Cloud-Modelle. Anbieter wie Aleph Alpha hosten in Deutschland und reduzieren Compliance-Risiken. Strafen reichen bis 4 Prozent des Jahresumsatzes.

Embedding

Numerische Darstellung von Text, Bild oder Audio, mit der KI Bedeutung berechnet.

Ein Embedding ist eine Liste von Zahlen (oft 1536 oder 3072 Dimensionen), die die Bedeutung eines Textes erfasst. Texte mit ähnlicher Bedeutung haben ähnliche Embeddings. Das ist die Grundlage von Semantic Search, RAG und Empfehlungssystemen. OpenAI, Cohere und Voyage bieten Embedding-APIs.

Few-Shot Learning

Der KI ein paar Beispiele in den Prompt geben, damit sie das Muster nachahmt.

Few-Shot bedeutet: Sie geben 2 bis 5 Beispiele der gewünschten Eingabe und Ausgabe mit, dann bittet die KI um eine neue Eingabe. Das funktioniert oft besser als lange Erklärungen. Zero-Shot ist ohne Beispiele, One-Shot mit einem Beispiel.

Fine-Tuning

Bestehendes Modell mit Ihren eigenen Daten anpassen, um spezifisches Verhalten zu erreichen.

Fine-Tuning trainiert ein vortrainiertes Modell weiter mit Ihrem Datensatz. So bauen Sie etwa einen Chatbot, der den Tonfall Ihres Unternehmens trifft, oder ein Modell, das auf medizinische Diagnosen spezialisiert ist. OpenAI, Anthropic und Mistral bieten Fine-Tuning-APIs. 2026 ist es oft günstiger, mit RAG zu arbeiten, außer für sehr spezifische Anwendungsfälle.

Function Calling

Funktion, mit der ein LLM strukturierte Eingaben für externe Tools erzeugt.

Function Calling lässt das Modell statt Klartext ein JSON-Objekt liefern, das eine API aufruft. Damit verbinden Sie ChatGPT mit Ihrer Datenbank, Ihrem Slack oder Ihrer Bestelltabelle. Anthropic nennt das Tool Use, OpenAI Function Calling. Es ist die Grundlage jedes praktischen Agenten.

Halluzination

Wenn die KI etwas erfindet, das überzeugend klingt, aber faktisch falsch ist.

Halluzinationen sind das größte Risiko bei der Nutzung von LLMs. Das Modell erfindet Quellen, Zitate, Statistiken oder ganze Ereignisse. Mit RAG, niedrigerer Temperatur und expliziten Aufforderungen wie Sage Ich weiß nicht, falls du unsicher bist sinkt das Risiko. Checken Sie kritische Fakten immer manuell.

Kontextfenster

Maximale Textmenge (in Tokens), die ein Modell auf einmal verarbeiten kann.

Das Kontextfenster ist 2026 enorm gewachsen. GPT-4 hatte 8K, GPT-5 hat 1 Million Tokens. Claude Opus 4 hat 200K standardmäßig und 1M auf Anfrage. Gemini 2.5 Pro hat 2M. Großes Kontextfenster bedeutet: ganze Bücher analysieren, Stunden an Meeting-Mitschriften zusammenfassen oder eine ganze Codebase durchsuchen.

LLM (Large Language Model)

KI-Modell, das auf riesigen Textmengen trainiert wurde, um Sprache zu verstehen und zu erzeugen.

Ein LLM ist die Technologie hinter Tools wie ChatGPT, Claude und Gemini. Diese Modelle lernen Muster aus Milliarden von Webseiten, Büchern und Codes. Sie sagen das nächste Token (Wortteil) voraus auf Basis des Kontexts. Bekannte LLMs 2026: GPT-5, Claude Opus 4, Gemini 2.5, Llama 4, Mistral Large 2.

Mittelstand

Deutsche kleine und mittlere Unternehmen, das Rückgrat der Wirtschaft.

Der Mittelstand umfasst rund 3,5 Millionen Unternehmen mit unter 500 Mitarbeitern und macht 55 Prozent der Wirtschaftsleistung Deutschlands aus. Bei der KI-Adoption ist er klassischerweise vorsichtig: Datenschutzbedenken, fehlende KI-Expertise und konservative Investitionskultur bremsen. Tools wie Aleph Alpha, Microsoft Copilot mit deutschem Hosting und DeepL setzen genau hier an.

Mixture oder Experts (MoE)

Modellarchitektur, die nur einen Teil der Parameter pro Anfrage aktiviert.

MoE-Modelle wie Mistral Mixtral, GPT-4 (vermutlich) und DeepSeek V3 enthalten mehrere Expertennetzwerke und einen Router, der für jedes Token den richtigen Experten wählt. Vorteil: Sie haben einen großen Parametersatz (Wissen) bei niedrigen Inferenzkosten. Nachteil: schwerer zu trainieren und zu hosten.

Multimodal

KI, die mit Text, Bild, Audio und Video gleichzeitig umgeht.

Multimodale Modelle wie GPT-5, Gemini 2.5 und Claude Opus 4 sehen Bilder, hören Audio und lesen Text in einer Anfrage. Sie zeigen ein Foto eines defekten Geräts und fragen Wie repariere ich das?, oder Sie laden ein Excel-Bild hoch und bitten um Analyse. Multimodal ist 2026 der Standard, nicht mehr Sonderausstattung.

OCR (Optical Character Recognition)

Technik, die Text aus Bildern und PDFs extrahiert.

OCR ist 2026 von KI dominiert. Tools wie Mistral OCR, AWS Textract und Google Document AI lesen handschriftliche Notizen, Tabellen und mehrsprachige Dokumente in Sekunden. Wichtig für die Digitalisierung von Archiven, das Verarbeiten von Rechnungen und das Auslesen alter Verträge.

Open Source LLM

Sprachmodell mit öffentlichen Gewichten, das Sie selbst hosten können.

Open Source LLMs wie Llama 4 (Meta), Mistral Large, Qwen (Alibaba) und DeepSeek liefern Sie auf Ihrer eigenen Hardware oder bei einem Anbieter wie Together aus. Vorteile: Datenschutz, keine API-Kosten pro Anfrage, vollständige Kontrolle. Nachteile: Hosting und Wartung sind nicht trivial. Beliebt bei Banken, Krankenhäusern und Behörden.

Prompt Engineering

Die Kunst, KI-Anweisungen so zu schreiben, dass das gewünschte Ergebnis herauskommt.

Prompt Engineering ist eine Fertigkeit, kein offizieller Beruf, aber gefragt. Gute Prompts enthalten Kontext (Sie sind ein erfahrener Steuerberater), Aufgabe (Erklären Sie, wann sich die Kleinunternehmerregelung lohnt), Format (in maximal 5 Sätzen) und Beispiele. Frameworks wie CRISPE und RACE helfen beim Strukturieren.

RAG (Retrieval-Augmented Generation)

Technik, die LLMs eigene Daten zur Verfügung stellt, ohne neu zu trainieren.

RAG verbindet ein LLM mit einer Datenbank Ihrer eigenen Dokumente. Die KI sucht relevante Stellen heraus und nutzt sie als Kontext für ihre Antwort. So bauen Sie ChatGPT-ähnliche Bots auf Ihrer eigenen Wissensbasis ohne teures Fine-Tuning. Werkzeuge wie LangChain, LlamaIndex und Pinecone sind hier Standard.

RLHF (Reinforcement Learning from Human Feedback)

Trainingsmethode, bei der Menschen KI-Antworten bewerten, um das Modell zu verbessern.

RLHF ist die geheime Zutat, die ChatGPT 2022 zum Durchbruch verhalf. Menschliche Bewerter ranken Modellantworten, die KI lernt daraus, was gute Antworten sind. Anthropic nutzt eine Variante namens Constitutional AI. RLHF erklärt, warum LLMs hilfreich sind statt nur das nächste Wort vorherzusagen.

Speech-to-Text (STT)

KI, die gesprochene Sprache in Text umwandelt.

Whisper von OpenAI, Deepgram und AssemblyAI sind die führenden STT-Modelle. Sie unterstützen Deutsch hervorragend, ebenso Niederländisch, Englisch und 80+ andere Sprachen. Anwendungen: Meeting-Mitschriften (Fathom, Otter), Untertitel, Voice-Bots. Genauigkeit liegt 2026 bei über 95 Prozent für klares Audio.

Temperature

Parameter, der steuert, wie kreativ oder vorhersehbar eine KI antwortet.

Temperature liegt zwischen 0 und 2. Bei 0 ist die KI deterministisch und gibt für denselben Prompt fast immer dieselbe Antwort. Bei 1 ist sie kreativ. Über 1 wird sie chaotisch. Für Code und Fakten: 0 bis 0,3. Für Brainstorming und Geschichten: 0,7 bis 1,0.

Text-to-Speech (TTS)

KI, die geschriebenen Text in natürliche Sprache umwandelt.

ElevenLabs, OpenAI TTS und Google WaveNet erzeugen Stimmen, die kaum von echten Menschen zu unterscheiden sind. Sie können auch Stimmen klonen aus 30 Sekunden Audio. Anwendungen: Hörbücher, Voiceovers für Videos, barrierefreie Websites, IVR-Systeme. Deutsche Stimmen sind reichlich vorhanden und mehrheitlich sehr natürlich.

Tokenization

Den Text in Stücke (Tokens) zerlegen, mit denen die KI rechnet.

Ein Token ist meist ein Wortteil von 3 bis 4 Zeichen. Niederländisch und Deutsch werden oft ineffizient tokenisiert: ein deutscher Text kostet etwa 50 Prozent mehr Tokens als derselbe Inhalt auf Englisch. Das beeinflusst Kosten und Geschwindigkeit. Mit OpenAIs Tokenizer können Sie selbst zählen.

Tokens per Second (TPS)

Geschwindigkeit, mit der ein LLM Text erzeugt.

TPS ist das Geschwindigkeitsmaß für LLMs. GPT-4o liefert ca. 80 TPS, Groq mit Llama erreicht 500+ TPS. Höher ist besser für Echtzeit-Anwendungen wie Voice-Bots. Bei Batch-Verarbeitung weniger relevant. Wer ein responsives Interface will, prüft TPS und Latenz vor der Modellwahl.

Top-p (Nucleus Sampling)

Alternative zur Temperature: begrenzt die Auswahl auf die wahrscheinlichsten Tokens.

Top-p (auch Nucleus Sampling) wählt aus dem kleinstenn Satz Tokens, deren kumulierte Wahrscheinlichkeit mindestens p ist (z.B. 0,9). Praktisch nutzen Sie entweder Temperature ODER Top-p, nicht beide gleichzeitig. Top-p liefert oft natürlichere Texte als Temperature allein.

Transformer

Neuronale Netzwerkarchitektur, die nahezu alle modernen LLMs antreibt.

Die Transformer-Architektur, 2017 von Google im Paper Attention Is All You Need vorgestellt, ist die Grundlage von GPT, Claude, Gemini und fast allen anderen modernen LLMs. Wesentliche Innovation: der Self-Attention-Mechanismus, mit dem das Modell für jedes Wort entscheiden kann, welche anderen Worte im Kontext relevant sind.

Vector Database

Datenbank, die für die Suche nach Embeddings optimiert ist.

Vector Databases wie Pinecone, Weaviate, Qdrant und Chroma speichern Millionen von Embeddings und finden in Millisekunden die ähnlichsten. Unverzichtbar für Produktions-RAG-Systeme. Postgres mit pgvector funktioniert auch und bleibt bei kleineren Mengen oft die einfachere Wahl.

Begriff fehlt?

Schreiben Sie uns über unsere Kontaktseite mit dem Begriff, dann fügen wir ihn hinzu.