Eine neue Studie des Internet Observatory der Stanford University zeigt, dass Mastodon, das dezentrale Netzwerk, das als Alternative zu Twitter gilt, von kinderpornografischem Material überschwemmt wird.
Innerhalb von nur zwei Tagen fanden die Forscher in 325.000 Beiträgen auf der Plattform 112 bekannte Fälle von Missbrauchsmaterial. Der erste Fall wurde bereits nach fünf Minuten gefunden.
Für die Studie durchsuchte das Internet Observatory die 25 beliebtesten Mastodon-Installationen nach kinderpornografischem Material. Dabei wurden die Google SafeSearch API und PhotoDNA verwendet, um explizite Bilder zu identifizieren. Insgesamt wurden 554 Inhalte gefunden, die Hashtags oder Schlüsselwörter enthielten, die häufig von Online-Gruppen für Kindesmissbrauch verwendet werden und von Google SafeSearch als eindeutig identifiziert wurden.
Darüber hinaus wurden 713 Verwendungen der 20 häufigsten Hashtags im Zusammenhang mit Kindesmissbrauch im gesamten Fediverse sowie 1.217 Textbeiträge gefunden, die auf “off-line Kindesmissbrauchshandel” oder die Anbahnung von Kontakten zu Minderjährigen hinwiesen. Die Studie kommt zu dem Schluss, dass das offene Posten von kinderpornografischem Material “alarmierend verbreitet” ist.
Die Forscher verweisen auf ein Beispiel, bei dem ein Mastodon-Server längere Zeit offline war, weil dort Missbrauchsmaterial veröffentlicht worden war. Obwohl der Betreiber des Servers auf das Material reagierte, dauerte die Moderation aufgrund begrenzter Ressourcen mehrere Tage. Im Gegensatz zu großen Plattformen wie Meta (ehemals Facebook) gibt es in dezentralen Netzwerken keine einheitlichen Moderationsrichtlinien, da jede Instanz die Moderation individuell steuert.
Die Forscher empfehlen, dass Netzwerke wie Mastodon robustere Moderationswerkzeuge wie die Integration von PhotoDNA und CyberTipline-Meldungen einsetzen sollten, um Sicherheitsbedenken besser zu begegnen. Mit der zunehmenden Beliebtheit dezentraler Netzwerke wächst auch die Sorge um die Sicherheit und effektive Moderation von Inhalten.