Администрация Instagram решила удалять не только фото и видео с суицидом, но и любые изображения о нанесении вреда себе. В том числе мемы и кадры из мультиков. Находить и удалять такой контент помогают специальные алгоритмы.
Об новом ограничении для контента в Instagram сообщили в официальном пресс-релизе соцсети 27 октября. Под запрет попадают любые изображения, связанные с самоповреждением или суицидом, заявил глава компании Адам Моссери.
Ранее инстаграм удалял только фото и видео напрямую демонстрирующие суицид или селфхарм. Расширить зону запрета в соцсети решили после консультаций с общественными организациями в Великобритании и Швеции.
Руководство Instagram считает, что нужно защитить несовершеннолетних от такой информации. Также платформа будет чаще показывать контакты общественных организаций и кризисных центров. Туда смогут обратиться люди в сложной психологической или жизненной ситуации.
Читайте также
Определять и удалять запретный контент будут специально обученные алгоритмы. Они начали работать в феврале 2019 года. За три месяца алгоритмы удалили 834 тысячи постов с фото и видео, содержащими селфхарм и суицид. Только на четверть постов были жалобы от пользователей, остальные алгоритмы нашли сами.
Аккаунты, которые нарушают правила сообщества, не будут попадать в рекомендации. За многократное нарушение правил инстаграма они могут быть удалены.
О том, что контент из интернета может негативно влиять на детей, говорят педагоги и родители по всему миру. Страшная женщина-птица Момо и легенда о ней стали мемом в 2018 году. Год спустя она вернулась в виде суицидального Момо-челленджа. Но пользователи сети решили нейтрализировать его и стали делать добрые мемы с Момо.
Комментировать