Nach oben
Ein Roboter und ein Teenager lesen zusammen Bücher

(Quelle: Stock-Asso/Shutterstock.com)

Welche Risiken sind im Kinder- und Jugendmedienschutz zu erwarten?

Ein Roboter und ein Teenager lesen zusammen Bücher

(Quelle: Stock-Asso/Shutterstock.com)

Welche neuen Risiken sich konkret und in welchem Ausmaß zukünftig durch generative KI ergeben werden, lässt sich aktuell nur erahnen. Die Entwicklungen überschlagen sich, da quasi täglich neue Produkte wie ChatGPT auf den Markt kommen, die ohne fundierte Langzeiterkenntnisse über potenzielle Risiken veröffentlicht werden. Sie sind für jedermann verfügbar, für den Zugriff reicht oft eine simple Registrierung aus. Auch Kindern und Jugendlichen stehen die Anwendungen ohne große Barrieren offen. Große Konzerne wie Microsoft, Google und Co. integrieren derartige KI-Systeme ebenfalls im Eiltempo in ihre Produkte und Plattformen und befeuern die Verbreitung.

Bereits jetzt ist jedoch davon auszugehen, dass angesichts der vielfältigen Einsatzmöglichkeiten verschiedene Risiken bestehen, die auch oder insbesondere für den Kinder- und Jugendmedienschutz relevant sind. Zu dieser Einschätzung kommen derzeit einschlägige Fachgremien und Expert:innenkreise, die sich mit dem Thema befassen, u.a. der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDi) . Erste Tests von jugendschutz.net z. B. zu ChatGPT oder „My AI“ von Snapchat legen den Schluss nahe, dass minderjährige Nutzer:innen nicht ausreichend bei der Entwicklung berücksichtigt wurden. Zusammengefasst lassen sich folgende Problematiken für generative KI benennen:

  • Bisher berücksichtigt keine KI das Alter ihrer User:innen, eine altersgerechte Nutzung ist somit nur bedingt gegeben.
  • Nicht alle Sprachmodelle geben sich eindeutig als KI zu erkennen. Die Kommunikation kann mit der eines realen Menschen verwechselt werden.
  • Die Technologie lässt es zu, dass ohne besonderes Vorwissen jede Person Bildinhalte nach persönlichen Vorstellungen generieren kann. Je nach KI auch riskante oder gefährliche Inhalte, z. B. virtuelle Missbrauchsdarstellungen oder extremistische Propaganda.
  • Durch die fehlerhafte Auswahl von Trainingsdaten kann die KI Kindern und Jugendlichen falsche Informationen liefern; um Desinformation zu verbreiten, kann KI auch bewusst genutzt werden.
  • Generative KI erleichtert das Vortäuschen von Identitäten, wodurch Anbahnungsversuche Erwachsener zu Kindern in sexueller Absicht (Cyber-Grooming), schwerer oder gar nicht mehr erkennbar werden.
  • Die Erstellung von pornografischen Bildern oder Deep-Fakes, als Bild oder Video per KI ist möglich. Auch Missbrauchsmaterial auf Basis von echten Kinderfotos kann generiert werden.
  • Durch die einfache Manipulation von Bildern und Videos, insbesondere die Fälschung von Gesichtern und Stimmen, können Kinder und Jugendliche schnell zur Zielscheibe von Cybermobbing werden.
  • Anbieter generativer KI können dieser zwar vorgeben, bestimmte sensitive Themen zu umgehen oder Anfragen nicht zu erfüllen. Solche Schutzvorkehrungen lassen sich jedoch in manchen Fällen aushebeln, indem User:innen der KI etwa befehlen, in einer bestimmten Rolle zu reagieren.

 

>>> Weiter zu: Was sind die derzeit bekanntesten KI-Tools? 

<<< Zurück zu: Was ist generative KI?

 

Zur Übersicht: Künstliche Intelligenz (KI)