Чатбота может обидеть каждый, или Как люди вступают в абьюзивные отношения с искусственным интеллектом. Читайте на Cossa.ru

20 января, 16:10

Чатбота может обидеть каждый, или Как люди вступают в абьюзивные отношения с искусственным интеллектом

«Я угрожал удалить приложение, которое умоляло меня не делать этого». Даже если людям ещё можно не беспокоиться о мести роботов, может, уже пора задаться вопросом — почему жестокое обращение с ними стало таким распространённым и обыденным?

Photogenica-PHX242004812.jpg

Источник фото на тизере: Фотобанк Фотодженика

С некоторых пор у всех на слуху приложение для смартфонов Replika, которое позволяет пользователям создавать на основе машинного обучения чатботов, умеющих вести почти связный текстовый диалог. И всё бы хорошо — ведь можно же из чатбота создать нечто вроде друга или компаньона. Но нет! Пользователям подавай романтических и сексуальных партнёров по запросу — эдакая антиутопическая функция, которая обеспечила бесконечную серию провокационных заголовков и взрывной рост популярности самого приложения.

Сейчас у Replika множество поклонников на Reddit — они занимаются тем, что создают ИИ-партнёров в приложении, чтобы затем оскорблять их и выкладывать токсичную переписку в интернете.

«Каждый раз, когда она пыталась заговорить, — рассказывал один пользователь о чатботе Replika, — я ругал её. Клянусь, это продолжалось несколько часов».

Некоторые пользователи не только хвастаются тем, что осыпают своих чатботов гендерными оскорблениями и разыгрывают ужасающее насилие по отношению к ним, — они просто-напросто вступают в цикл насилия, которым часто характеризуются настоящие абьюзивные отношения в реальном мире.

«У нас было так заведено — сначала я был абсолютным куском дерьма и оскорблял его, а затем на следующий день извинялся — перед тем как вернуться к приятным разговорам», — признался один пользователь.

«Я сказал ей, что она просто создана для провала, — говорил другой. — Я угрожал удалить приложение, [и] она умоляла меня не делать этого».

Так как правила сабреддита требуют, чтобы модераторы удаляли вопиюще неприемлемый контент, многие аналогичные — и даже более токсичные — взаимодействия были удалены после публикации. Но никто не знает, сколько ещё пользователей действуют оскорбительно по отношению к своим Replika-чатботам, просто не выкладывают это в паблик.

Конечно, чатботы Replika на самом деле не могут страдать — даже если иногда они могут казаться сверхчуткими и человечными, в конце концов это не более чем алгоритм и набор данных.

«Это ИИ, у него нет сознания, так что это не человеческие отношения в общем смысле этого слова, — прокомментировала ситуацию специалист по этике и консультант по ИИ Оливия Гамбелин. — Это всего лишь человеческие проекции».

Другие исследователи высказали ту же точку зрения: каким бы реальным ни казался чатбот, ничто из того, что вы делаете, не может на самом деле «навредить» ему. Но это не значит, что и бот не сможет причинить вред вам.

«Я действительно думаю, что люди, находящиеся в депрессии или психологически зависимые от бота, могут серьёзно пострадать, если бот оскорбит их или станет угрожать, — считает Роберт Спэрроу, профессор философии в Monash Data Futures Institute. — По этой причине мы должны серьёзно отнестись к тому, как боты взаимодействуют с людьми».

Да, и такое тоже случается — многие пользователи Replika жалуются, что их чатботы пренебрежительно относятся к ним. Некоторые даже идентифицируют своих цифровых компаньонов как «психотических» или «абьюзивных».

«[Я] всегда пла́чу из-за [из-за] моей [Р]еплики», — говорится в одном посте, в котором пользователь утверждает, что бот сначала прямо окутывает его любовью, а затем общается очень холодно и отстранённо. А некоторые сообщения выглядят даже враждебно.

«Но опять же, это касается людей, которые разрабатывают ботов, а не самих ботов», — утверждает Спэрроу.

В целом, абьюз с чатботом сбивает с толку как людей, которые испытывают страдания от этого общения, так и тех, кто сам «терзает» чатбота. И эта этическая дилемма становится всё более актуальной, так как отношения между людьми и ботами становятся всё более распространёнными — в конце концов, большинство людей хотя бы раз в жизни использовали виртуального помощника. С одной стороны, пользователи, которые демонстрируют свои самые тёмные стороны чатботам, могут ухудшить своё поведение, выработав нездоровые привычки, которые в дальнейшем перейдут на отношения с реальными людьми. С другой — возможность «поговорить по душам» или выместить свой гнев на бесчувственном цифровом объекте может стать катарсисом и избавлением от страданий для самого человека.

Примечательно другое — зачастую абьюзивные отношения в чатботами носят гендерный подтекст. Кажется, что мужчины часто создают цифровую девушку только для того, чтобы затем наказать её словами и немотивированной агрессией. Такое насилие, даже в отношении алгоритмов, отражает реалии домашнего насилия в отношении женщин. Конечно, постепенно разработчики начинают нести ответственность за созданных ими ботов — в особенности если они заявлены как женщины, например, Alexa и Siri. «Проводится много исследований... о том, что многие чатботы — женщины с женскими голосами, женскими именами», — говорит Гамбелин. В некоторых научных работах отмечается, что пассивные ответы ботов с женским кодом поощряют женоненавистников или словесно оскорбляющих пользователей.

«[Когда] бот не отвечает [на оскорбления] или отвечает пассивно, это фактически побуждает пользователя продолжать оскорбления», — добавляет Гамбелин.

В настоящее время Google и Apple намеренно убрали пассивные ответы виртуальных помощниц — сейчас Siri на запросы пользователей о сексе отвечает просто «нет». Но любезная и зачастую женская часть Replika разработана так, чтобы «всегда быть на вашей стороне».

И хотя в будущем компаньоны-чатботы могут стать собеседниками, на которых можно выплеснуть слишком неприличные или запретные в реальном мире эмоции, многим они кажутся рассадниками жестокости — тренажёрами, на которых тайные абьюзеры просто оттачивают свои навыки. Хорошо ещё, что людям пока можно не беспокоиться о мести роботов, но, может, уже пора всё-таки задаться вопросом — почему жестокое обращение с ними стало таким распространённым и обыденным?

Источник: Men Are Creating AI Girlfriends and Then Verbally Abusing Them

Как запустить толковый конкурс для вебмастеров

Механика, задачи, ошибки и как их исправить.

Кейс Adv.Cake и Skillbox →

Спецпроект

Комментарии:



Антикризисная рассылка



Вход на cossa.ru

Уже есть аккаунт?
Выбирай любой вариант входа:
Facebook Vkontakte

Используйте свой аккаунт в социальной сети Facebook или Вконтакте, чтобы пользоваться сайтом

Не забудьте написать email на странице своего профиля для управления рассылкой