F8: как Facebook борется с запрещённым контентом
Машинный поиск, который узнаёт спамеров в лицо.
На конференции F8 Гай Розен (Guy Rosen), вице-президент Facebook по управлению продуктом, рассказал, как компания борется с запрещённым контентом. Посты удаляют двумя способами. Первый — модераторы вручную разбираются с контентом, на который жалуются пользователи, второй — алгоритмы ищут и удаляют подобный контент автоматически.
В первом квартале 2018 года автоматически удалили почти два миллиона про-террористических публикаций. Пользователи успели сообщить только об 1%, остальные 99% исчезли благодаря машинному поиску. Так как у компании освободился человеческий ресурс, стали быстрее обрабатываться кейсы, которые требуют понимания контекста. Например, чтобы определить, говорит ли пользователь о своей наркотической зависимости или призывает других к употреблению.
Машинный поиск знает, как выглядят порнография, фото и видео с изображением насилия. Также ИИ научился определять ненависть и призывы к насилию в речи.
Технологии также эффективно борются со спамом, фейковыми аккаунтами, которые подозревают в финансовых махинациях, террористической пропагандой. Представители Facebook утверждают, что алгоритмы определяют и суицидальный контент, и уже есть успешные кейсы, когда пользователям смогли помочь.
Пока что технология работает с английским и португальским языками, плюс ей помогают сотрудники компании, но в будущем планируется полная автоматизация процесса на большинстве языков. Чтобы помочь компании, важно сообщать о нарушениях и запрещённом контенте.
О других новостях конференции F8 читайте в нашем обзоре.
Хотите подсказать новость или поделиться экспертным мнением? Пишите: news@cossa.ru