Chatbots als neue Quellen der Wahrheit?
KI-Chatbots, die auf Großen Sprachmodellen (LLMs) basieren, können nicht als neue Quellen der Wahrheit betrachtet werden. Falsch eingesetzt, führen sie leicht in die Irre.
Für professionelle Kommunikation ist strukturierter Kontext aus der eigenen Organisation essenziell. Aktualität und gesicherte Faktentreue können von Sprachmodellen nicht garantiert werden. Sie sind Werkzeuge zur Sprachverarbeitung und -generierung, keine unfehlbaren Wissensspeicher.
Zurück zur Faktenübersicht
Sprachmodell versus Chat-Bot
Ein Sprachmodell (Large Language Model, LLM) ist die zugrunde liegende künstliche Intelligenz, die menschliche Sprache versteht und generiert, während ein Chatbot die spezifische App oder Benutzeroberfläche ist, die ein solches Modell für Konversationen nutzt.
Sprachmodell (LLM)
Ein Sprachmodell ist ein komplexer Deep-Learning-Algorithmus, der auf enorm großen Datenmengen menschlicher Sprache vortrainiert wurde. Es dient als "Gehirn" für die Sprachverarbeitung. Es erkennt Muster in der Sprache, versteht, fasst zusammen, übersetzt Texte und generiert menschenähnlichen, kontextrelevanten Text. Beispiele: OpenAI GPT-5, Google Gemini, Claude, Llama.
KI-Chatbot
Ein KI-Chatbot ist auf spezifische Anwendungsfälle und Interaktionen ausgerichtet, oft im Kundenservice, Marketing oder zur Beantwortung häufig gestellter Fragen. Im Gegensatz zu seinen Vorgängern arbeitet ein KI-Chatbot nicht mit vorbereiteten Skripten und starren Regeln, sondern mit einem großen Sprachmodell, um flexiblere Gespräche zu führen. Beispiele: ChatGPT, Google Assistant, Alexa, Siri, Kundenservice-Bots auf Websites.
Zurück zur Faktenübersicht
KI als Energieverbraucher
Eine einzelne KI-Anfrage verursacht je nach Modell und Komplexität zwischen etwa 1,14 und 4,32 Gramm CO2. Ein durchschnittliches Auto mit Verbrennungsmotor würde mit gleichem Kohlendioxid-Ausstoß gerade mal 10 bis 30 Meter weit kommen.
Für einen vertretbaren KI-Einsatz im größeren Unternehmenskontext sollten unterschiedliche Sprachmodelle je nach Energieverbrauch und Einsatzzweck gewählt werden. Sowohl Training als auch Nutzung der Modelle müssen bei der Betrachtung des CO2-Fußabdrucks einbezogen werden.
Zurück zur Faktenübersicht
Keine End-User App für Profi-Zwecke nutzen
End-User-Apps wie ChatGPT, Copilot oder Perplexity ersetzen keinen professionellen Unternehmenskontext. Maßgeschneiderte Lösungen sichern Governance, Datenschutz und Compliance.
Zurück zur Faktenübersicht
Datenspeicher für KI aufbereiten
RAG-Speicher (retrieval-augmented generation) strukturieren große Datenmengen, damit KI gezielt darauf zugreifen kann, ohne Kernbotschaften zu verändern. Sie setzen quasi Bookmarks und machen Daten direkt nutzbar für Anwendungen.
Zurück zur Faktenübersicht
Alles nur Wahrscheinlichkeiten?
Wie Menschen auch, legen KI-Sprachmodelle ihr Wissen in einer Art neuronalen Netz ab. Wahrscheinlichkeiten helfen dabei, schnelle Aussagen zu treffen, Vorhersagen zu machen und Texte flexibel zu generieren.
Zurück zur Faktenübersicht
Manuelle Prompts vs. Function Calls
Jeder Promptdurchlauf bringt unterschiedliche Ergebnisse. Function Calls erlauben es, strukturierte JSON-Ausgaben zu erzeugen, die maschinenlesbar und direkt für komplexe Anwendungen nutzbar sind.
Zurück zur Faktenübersicht