Система модерации контента в популярных игровых платформах работает следующим образом:
- Для текстового контента жалобы обрабатываются автоматически и могут быть закрыты, если инструменты отметят его безопасным. 1 Регулярно проводятся выборочные проверки контента, на который поступили жалобы, чтобы убедиться, что ничего не упущено. 1 Если что-то всё же оказывается пропущенным, настраивают фильтр, чтобы в будущем такого не повторилось. 1
- Для визуальных пользовательских данных жалобы игроков об изображениях, которые являются неприемлемыми для игры или сервиса, где они опубликованы, рассматриваются людьми. 1 Всё, что по их мнению является неподобающим, удаляется. 1
- При жалобах на голосовой чат при подаче жалобы получают запись голосового чата за весь раунд, а также запись чата игрока, на которого пользователь жалуется. 1 Запись автоматически преобразовывается в текст и отправляется команде модераторов. 1 Модераторы изучают полученный текст и записи, прежде чем принять какие-либо действия. 1
Также для автоматической модерации контента могут использоваться алгоритмы машинного обучения, которые фильтруют определённые запрещённые слова, изображения и видео. 5