Automatisierte Bekämpfung von Missbrauchsdarstellungen
Seit Mai 2020 beteiligt sich jugendschutz.net am Project Arachnid zur Identifizierung bereits bekannter Darstellungen des sexuellen Missbrauchs von Kindern. Den Kern der vom Canadian Centre for Child Protection entwickelten Plattform bildet eine Datenbank mit Hashwerten - digitale Fingerabdrücke - von Bilddateien, die zur automatischen Identifikation bekannter Darstellungen genutzt wird. Eine Software prüft mithilfe der Arachnid-Datenbank automatisch gemeldete Angebote und vollzieht einen Abgleich mit den Hashwerten der Datenbank. So soll gewährleistet werden, dass bereits bekannte Darstellungen nicht mehr verbreitet werden können. Dies schützt sowohl die Betroffenen als auch Analyst:innen, die sich die Bilder nicht wiederholt ansehen müssen.
Stößt Arachnid auf bekannte illegale Inhalte, werden automatisch Ermittlungsbehörden, Partnerhotlines oder Provider informiert. Eine Sichtung ist nicht mehr nötig.
Klassifizierung durch beteiligte Analyst:innen
Arachnid bearbeitet aktuell eindeutige Missbrauchsabbildungen, die nach den Kriterien von Interpol (International Criminal Police Organization) weltweit geächtet sind. Das den Hashwerten zugrundeliegende Bildmaterial wird im Rahmen des Projekts händisch durch Analyst:innen der am Projekt beteiligten Organisationen klassifiziert. Dem Hashwert wird erst dann eine Klassifizierung zugeordnet, wenn drei Personen den Inhalt übereinstimmend eingeschätzt haben.
Arachnid vergleicht nur Dateien auf Angeboten, die den beteiligten Hotlines als Darstellungen der sexualisierten Gewalt gegen Minderjährige gemeldet wurden. Findet Arachnid eindeutig illegales Material, crawlt das System auch Inhalte auf hier verlinkten Angeboten. Findet das System keine illegalen Inhalte mehr, stoppt es. Demnach handelt es sich nicht um ein Überwachungstool, die Crawler arbeiten lediglich begründete Verdachtsfälle ab.
Diensteanbietern, wie Plattformanbietern und Providern steht es offen, Inhalte auf ihren Angeboten gegen die Arachnid-Datenbank abzugleichen und somit bereits die Uploads illegaler Inhalte im Bereich der sexualisierten Gewalt gegen Minderjährige zu verhindern. Hierzu müssen keine Dateien angesehen werden, da lediglich die Hashwerte verglichen werden.
Durch die automatisierte Bearbeitung bereits bekannter Inhalte werden Freiräume zur Eindämmung von unbekanntem Material geschaffen und so die Hotlinearbeit effektiver gestaltet. Beteiligte Analyst:innen können sich auf nicht automatisch bearbeitete Meldungen konzentrieren und so leichter aktuelle Fälle fokussieren.