
Die Moderation auf großen sozialen Plattformen wird häufig zu einem entscheidenden Teil durch Algorithmen durchgeführt. Zwar gibt es auch menschliche Moderatoren, die Inhalte auf Verstöße der jeweiligen Nutzungsbedingungen prüfen. Für sämtlichen Content wäre das aber aufgrund der schieren Menge an Inhalten oft kaum mehr möglich. Die selbstlernenden Systeme sind allerdings nicht vor Fehlern gefeit, wie eine Untersuchung der Carnegie Mellon University nun nahelegt.