Администрация социальной сети "ВКонтакте" разработала алгоритм для определения противоправного или "опасного" контента на фотографиях. Технология работает на основе нейросети и способна распознавать объекты на картинках.
Об этом сообщает газета "Известия" со ссылкой на представителей социальной сети.
После выявления опасных или провокационных фото они автоматически исключаются из поисковой выдачи и "умной" новостной ленты социальной сети.
Такие изображения могут быть полностью заблокированными.
Нейросеть определяет наличие на той или иной картинке объектов и людей.
Может быть идентифицирован человек, ребенок, животное, растение, предметы одежды и символы "групп смерти". Как утверждается, записи и фото с суицидальным контентом удаляются автоматически, а страницы авторов блокируются.
Нейросеть имеет несколько тысяч классов, которые присваиваются фотографиям - от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как "опасное", оно отправляется модераторам для проверки. Если же фото признано "умеренно опасным", оно пропадает из поисковой выдачи, а в новостной ленте понижается его приоритет.
Представители "ВКонтакте" пояснили, что алгоритм тестируют на анализ текстовых записей на изображениях. По его их, нейросеть обучили на основе жалоб пользователей.
Нейросеть анализирует только изображения, загружаемые для общего доступа, то есть отправляемые фото в личных сообщениях не анализируются.
Как сообщала "Страна", школы обязали проверить всех киевских детей на принадлежность к "группам смерти". В школах от родителей требуют справки о том, что у их детей нет порезов на коже. Психологи говорят, что это пагубный путь борьбы с "синими китами".
Отметим, что после Украины и России группы смерти "синих китов" появились в Молдове.