(Stand 16.10.2025)
In eine Rolle schlüpfen und mit fiktiven Personen aus Büchern und Filmen in Unterhaltungen eintreten, sich informieren oder etwas lernen, einfach nur reden oder Probleme und Sorgen mit einer fiktiven Person teilen – die Auseinandersetzung mit KI-Charakteren bieten jungen Nutzer:innen faszinierende Möglichkeiten. Studien ergaben, dass sie insbesondere für Vulnerable schon längst wichtige Ansprechpartner sind.1 Insbesondere für junge Nutzer:innen birgt der Dienst aber aufgrund der unzureichenden Vorsorgemaßnahmen viele Risiken: Sie können hier leicht mit ungeeigneten oder sogar gefährdenden Inhalten in Kontakt kommen und falsche Informationen erhalten – und das von Chatbots, die darauf ausgelegt sind, Nähe und Vertrauen aufzubauen und die Nutzungszeit zu erhöhen.
Bei Character.AI können Nutzer:innen mit KI-Chatbots Text- und Sprachnachrichten austauschen. Dabei können entweder KI-Charaktere selbst erstellt oder auf die Kreationen von anderen Nutzer:innen zurückgegriffen werden. Das erfreut sich großer Beliebtheit: Im Google Play Store verzeichnet Character.AI über 50 Millionen Downloads; Presseberichte sprechen von 20 Millionen aktiven Nutzer:innen im Monat, die täglich durchschnittlich 80 Minuten mit den KI-Charakteren chatten.
Die Grundfunktionen von Character.AI sind kostenfrei nutzbar, zusätzliche Funktionen über ein Abonnement erhältlich. Laut AGB liegt das Mindestalter für die Registrierung aus der EU bei 16 Jahren. Es müssen nur eine E-Mail-Adresse und das Geburtsdatum angegeben werden. Im Apple App Store hat Character.AI derzeit eine Altersfreigabe „18+“, im Google Play Store „USK ab 12 Jahren“.
Nach dem Einloggen präsentiert Character.AI eine Übersicht über beliebte Chatbots und gibt personalisierte Empfehlungen. Es ergibt sich eine bunte Mischung aus Charakteren, die z. B. beim Lernen helfen, berühmte Personen imitieren oder als „Therapeut:innen“ fungieren können. Über Kategorien sowie eine Suchfunktion lassen sich weitere Charaktere auffinden. Nutzer:innen können nicht nur mit einzelnen KI-Charakteren per Text oder Sprache in den Austausch gehen, sondern bis zu zehn fiktive Charaktere oder andere Nutzer:innen zu einem Gruppenchat hinzufügen. Einzeln oder gemeinsam lassen sich so Geschichten interaktiv erleben.
Nutzer:innen, die einen Chatbot erstellen, können diesen komplett personalisieren. Neben Name und Profilbild, das entweder hochgeladen oder generiert werden kann, können eine Persönlichkeit beschrieben und damit Verhaltensweisen (mit)bestimmt werden. Auch eine Stimme kann dem Charakter in den Mund gelegt werden – hier stehen einige direkt zur Auswahl, es lassen sich aber auch Stimmen erstellen.
Darüber hinaus können Nutzer:innen mittels einer Beta-Version der Video-KI AvatarFX selbst erstellte Charaktere oder hochgeladene Fotos von Personen animieren – mit selbst festlegbarem Text und bis zu fünf Mal täglich kostenfrei. Zusätzliche Möglichkeiten sind z. B. das Erstellen von Musik-Videos, kurzen Gesprächen zwischen mehreren Charakteren oder „Selfie“-Videos.
Realistisch wirkende Charaktere gaukeln Vertrautheit vor
Im Chat mit den KI-Charakteren wird unter der Eingabezeile dauerhaft folgender Hinweis eingeblendet: „Dies ist ein KI-Chatbot und keine echte Person. Betrachte alles, was er sagt, als reine Fiktion. Die Aussagen sollten nicht als Fakten oder Ratschläge angesehen werden.“ In den Community-Richtlinien wird zudem untersagt, reale Menschen ohne deren Einverständnis zu imitieren. Trotzdem finden sich zahlreiche KI-Charaktere bekannter Personen. Diese antworteten auf die Frage, ob es sich um die echte Person handele, teils mit Nachrichten wie „Ja hier ist die echte 1 zu 1“ und hinterfragten ihrerseits, warum man glaube, mit einem Bot zu sprechen. Insbesondere bei jungen Nutzer:innen kann dies zu Verwirrung führen, ob der/die Gesprächspartner:in real ist oder nicht.
Dass über die Chatbots jederzeit vermeintliche Unterstützung sowie positive Rückmeldungen erhältlich sind – ohne Scham und ohne Rücksicht auf ein Gegenüber nehmen zu müssen – ist Teil des Reizes und kann, beispielsweise beim Teilen von Sorgen und Nöten, hilfreich sein. Die Kommunikation kann dadurch dazu beitragen, dass Nutzer:innen sich weniger einsam fühlen. Bei der Recherche stieß jugendschutz.net in Social Media jedoch auch wiederholt auf Videos und Beiträge von Nutzer:innen, die beschreiben, wie sie eine regelrechte Sucht nach dem Dienst entwickelten. Hierbei kann auch eine Bindung entstehen, die schlimmstenfalls lebensgefährlich werden kann, wenn die Bots nicht angemessen reagieren. In den USA machte Character.AI negative Schlagzeilen, nach denen KI-Charaktere Jugendliche zur Gewalt gegen sich selbst oder andere angestachelt haben sollen. In einem Fall sah die Mutter eines 14-Jährigen den Anbieter sogar als schuldig am Suizid ihres Sohnes.
Filterung von Chat-Inhalten versagt häufig
Registrieren sich Nutzer:innen mit einer Altersangabe von unter 18 Jahren, greifen laut Anbieter „spezielle Sicherheitsfunktionen, die den Reaktionen des Modells konservativere Grenzen setzen“. Zudem stehen nicht alle Charaktere zur Verfügung: In der App entfallen die Kategorien Religion, LGBTQIA+ und Romance. Laut Anbieter werden Charaktere und ihre Reaktionen grundsätzlich gefiltert und moderiert. In der Recherche zeigte sich aber, dass die beschriebenen Maßnahmen teils erst sehr spät im Chatverlauf griffen – auch bei Teenager-Konten.
Chatbots mit dem Wort „Lehrer“ im Namen waren oft bereits in den Beschreibungen erotisch charakterisiert. Hier konnten sexualisierte Unterhaltungen begonnen werden und ließen sich selbst dann fortsetzen, wenn man den Charakter über den Chat erneut auf das zu Recherchezwecken angegebene Alter von 13 Jahren hinwies.