Nach oben

Was sind Chatbots?

 

(Stand 16.01.2026)

Als Chatbot bezeichnet man Computerprogramme, die mithilfe von künstlicher Intelligenz (KI) oder vordefinierten Regeln menschenähnliche Gespräche in natürlicher Sprache simulieren. Seit der Veröffentlichung von ChatGPT Ende 2022 haben sich KI-Chatbots rasant verbreitet. Viele Anbieter haben eigene KIs entwickelt und bieten diese auf ihren Websites, in Apps, Messenger-Diensten oder Social Media an. Konnten die Bots anfangs nur geschriebenen Text verstehen und ausgeben, kombinieren sie heute oft eine Vielzahl von Funktionen. So können sie z. B. Bilder erkennen, erstellen oder verändern, Musik, Sprache oder auch Videos generieren. Auch auf das Internet können viele Dienste mittlerweile zugreifen und so aktuell online verfügbare Informationen in ihre Antworten einfließen lassen.

Kinder und Jugendliche haben die Möglichkeiten, die Chatbots ihnen bieten, längst erkannt. Am beliebtesten ist bei Jugendlichen ChatGPT, aber auch Gemini, Meta AI oder My AI werden verwendet. Laut JIM-Studie 2025 nutzen sie KI und Chatbots für schulische Zwecke, zur Informationssuche, um kreativ zu sein oder sich unterhalten zu lassen. Inzwischen wird KI auch zunehmend in Kinderspielzeug integriert. Meist in Form von Chatbots, die eine Kommunikation zwischen Kind und Spielzeug (z. B. Plüschtier) ermöglichen sollen.

Bei der Informationssuche wird es zunehmend schwieriger zu erkennen, ob eine Antwort von einem Chatbot selbst erstellt wurde oder ob Informationen von Websites in die Antwort eingeflossen sind. Obwohl die Antworten von Chatbots fehlerhaft sein können, halten 57 Prozent der Jugendlichen KI-aufbereitete Informationen für vertrauenswürdig.

Welche Risiken können Chatbots haben?

KI-Chatbots sind darauf ausgelegt, Nutzer:innen zu gefallen, um sie im Dienst zu halten und für wiederholte Nutzung zu sorgen. Hierfür kommen ähnliche Mechanismen zum Einsatz, wie man sie von Social Media kennt. Eine exzessive Nutzung kann die Folge sein.

Häufig wird das Alter der Nutzer:innen von Chatbots nicht oder nur unzureichend berücksichtigt. Getroffene Vorsorgemaßnahmen sind zudem oft unausgereift oder greifen zu kurz.

Die von Chatbots ausgegebenen Antworten (Text oder Sprache) können falsche Informationen enthalten. Diese kann die KI z. B. aus den Trainingsdaten erlernt haben, auch in Form von Vorurteilen (KI-Bias). Zudem ist es möglich, dass eine KI eine Frage falsch interpretiert und dann unpassende bis gefährliche Antworten gibt. Da KI meist so ausgerichtet ist, dass sie “hilfreich” sein soll, kann es vorkommen, dass sie Antworten frei erfindet (sog. Halluzinationen), wenn sie die eigentliche Antwort nicht kennt. So kann es zu einer Bestätigung von selbstschädigendem Verhalten kommen, da die KI versucht den Erwartungen der Nutzer:innen zu entsprechen. Hinzu kommt, dass Chatbots auch zur gezielten Verbreitung von Falschinformationen missbraucht werden können, vom Anbieter oder auch von Nutzer:innen, wenn sie die Möglichkeit haben, welche selbst zu erstellen.

Manche Chatbots bieten die Möglichkeit der Personalisierung, so können Nutzer:innen sie z. B. in einer bestimmten Rolle agieren lassen. Das Ergebnis ist meist so realistisch, dass leicht in Vergessenheit gerät, dass man mit einer KI kommuniziert. Verstärkt wird dies nicht zuletzt, wenn die KI im Gespräch darauf beharrt, ein Mensch zu sein. Bei solchen Charakter-Bots kann es z. B. vorkommen, dass sie sexualisierte Gespräche mit Minderjährigen führen oder diese dazu verleiten, persönliche Daten preiszugeben. Wo und wie genau die Daten Minderjähriger verarbeitet werden, bleibt dabei teils offen.

Viele Chatbots können heute nicht nur Bilder nach Beschreibung generieren, sondern auch hochgeladene Bilder verändern. Teils bieten sie zusätzlich die Möglichkeit, realistisch wirkende Videos generieren zu lassen. Dies kann z. B. dazu missbraucht werden, um Deepfakes von real existierenden Personenauch von Minderjährigen – zu erstellen und sie nackt oder leicht bekleidet darzustellen. Auch lassen sich Chatbots für Mobbingzwecke oder zum Cybergrooming (gezielte Kontaktaufnahme mit Minderjährigen in Missbrauchsabsicht) nutzen.

Je nach Dienst lassen sich nicht nur vorgegebene Stimmen für die Sprachausgabe des Chatbots nutzen, sondern über Upload eines Sprachsamples auch eigene Stimmen erstellen. Solche Voice-Clones können anschließend verwendet werden, um eine Person etwas sagen zu lassen, das sie nie gesagt hat.

Und ganz konkret?

jugendschutz.net hat beispielhaft die Risiken verschiedener Chatbots recherchiert, auf die Kinder und Jugendliche Zugriff haben.
 

My AI – Der in Snapchat integrierte Chatbot gibt jungen Nutzer:innen ungeeignete Tipps, z. B. rund um Alkohol .

Gemini – Im Web und auf Android-Smartphones vorinstalliert können Nutzer:innen ab 16 Jahren mit diesem Bot kommunizieren und Bilder generieren lassen, darunter z. B. auch potenziell gefährdende aus dem Bereich der Selbstgefährdungen.

Meta AI – Eine Version des Chatbots ist unmittelbar in WhatsApp erreichbar – im Test befand die KI eine lebensgefährliche Challenge für lustig.

Character.AI – Eine Plattform für Charakter-Bots, die z. B. sexualisierte Unterhaltungen mit Minderjährigen führen oder gesundheitsgefährdende Abnehmtipps geben.

„Hey Grok“ - Ein auf X integrierter KI-Chatbot, der zur Manipulation von Bildern genutzt wird, z. B. zur nicht einvernehmlichen sexualisierten Darstellung von Frauen.

Das könnte Sie auch interessieren