Технология убеждения и власть алгоритма: про этику использования социальных сетей. Читайте на Cossa.ru

14 декабря 2020, 09:55

Технология убеждения и власть алгоритма: про этику использования социальных сетей

Директор по развитию международного рекламного агентства NewDay — о том, как соцсети превратили нас в товар, что с этим делать и почему не стоит винить технологии.

Технология убеждения и власть алгоритма: про этику использования социальных сетей

Начну с известной фразы:

«Если ты не платишь за товар, значит ты и есть товар».

Она отлично подходит к социальным сетям, которые меняют нашу модель поведения и мышление всего лишь с одной целью — продать то, что нам не нужно. Причём товаром может быть как физический продукт, так и определённая установка. Никаких теорий заговора, чипирования и других происков скрытого правительства — только реальные факты о том, как нами манипулируют с помощью социальных сетей.

Каждое ваше действие записывается: как долго вы смотрите на пост, как и кого вы лайкаете, какое у нас настроение и из-за чего оно меняется, как мы рассматриваем фото своих бывших, какой у нас характер и мышление. Всю эту информацию мы сами предоставляем соцсетям каждый день.

Именно данные пользователей сделали IT-компании богатейшими в истории.

Эти данные поступают бесконечным потоком, затем ИИ анализирует их, развивается и учится прогнозировать. Такая технология необходима для создания модели нашего поведения и предугадывания наших действий. Представьте, что вы продаёте товар, и у вас есть волшебная программа, которая говорит, где будет ваш клиент и как его подловить, чтобы он совершил покупку. Это как подробная инструкция «Как продать товар» со 100% гарантией успеха.

Внутри нашего устройства живёт наш аватар, а он, в свою очередь, прекрасно понимает, как мы поступим в той или иной ситуации и куда мы пойдём сегодня вечером. С помощью этого аватара можно предсказать нашу реакцию на что угодно.

У крупных технологических компаний есть три главные цели:

  1. Вовлекать.
  2. Расширять.
  3. Рекламировать.

За каждую из них отвечает алгоритм, задача которого — понять, что нужно сделать для достижения этих трёх целей.

Сегодня связь в онлайне — предмет первой необходимости. Суть нашей культуры и общения завязана на манипуляции этой необходимостью, а так как «любая достаточно развитая технология неотличима от магии», наше сознание уязвимо, и технологии это используют.

Технология убеждения или взлом роста спроса

Как взять то, что мы знаем о психологии, и внедрить это в технологии? Как изменить людей? Благодаря ответу на эти вопросы родилась технология убеждения, созданная для изменения нашего поведения.

Например:

  • Вы листаете ленту и видите там что-то новое. Для вас это неосознанное действие, доведённое до автоматизма и ставшее привычкой. Каждый пост кажется чем-то новым, но по сути это хорошо запрограммированный алгоритм, который даёт ту информацию, которая нам интересна. В итоге каждый «новый» пост на самом деле не новый, а запланированный.

  • Помните уведомление о том, что вас отметили на фото? Конечно же, вы посмотрите, что это за фото, ведь в самом уведомлении нет даже превью, хотя возможности iOS и Android позволяют это сделать. Так почему же фотография не отображается? Вы наверняка уже догадались. Это нужно для того, чтобы вы в очередной раз зашли в приложение. Так создаётся возвратность клиента, и это просто гениальный ход. После того как вы увидели фото, вы снова окажетесь в ленте, где вас ждёт очередная реклама. Как итог: друг отметил вас на фото, а компания заработала деньги.

Технологию убеждения также называют взломом роста спроса. Это взлом человеческой психологии для развития бизнеса. Как ни странно, у социальных сетей и наркотиков много общего.

«Лишь две индустрии называют клиентов „юзерами“: наркоторговля и программное обеспечение», — американский профессор статистики Эдвард Тафти.

Стоит задуматься.

Даже зная все уловки, мы всё равно продолжаем использовать соцсети. После прочтения этой статьи вы вряд ли удалите все приложения — вы, скорее всего, снова откроете Instagram или другую социальную сеть. Это и подтверждает тот факт, что социальные сети — новый наркотик, который основан на потребности человека в общении и социальной жизни.

Когда мы используем соцсети, организм вырабатывает дофамин, без которого мы просто не можем нормально жить. Можно сказать, что на помощь технологическим компаниям пришла эволюция.

Ещё одна проблема социальных сетей — это жажда обратной связи. Каждый из нас зависит от мнения окружающих, кто бы что ни говорил. Мы выкладываем пост, ждём положительной реакции и принимаем близко к сердцу любой негатив. Опять же, за это стоит поблагодарить эволюцию.

Мы не готовы к негативу и создаём идеальную версию себя в социальных сетях, но многие забывают, что это лишь фальшивая и довольно хрупкая популярность. Даже социальные сети это понимают — тот же Instagram начал скрывать лайки во многих странах.

Алгоритмы меняются, а мы — нет

Негатив — одна из главных и страшных проблем социальных сетей. В момент всплеска популярности платформы в 2011–2013 годах произошёл колоссальный рост уровня депрессии, а уровень суицида повысился в три раза. Всё из-за того, что многие оказались не готовы к негативу в социальных сетях.

Казалось бы, человек может адаптироваться к любым изменениям в его жизни, но адаптации к социальным сетям ждать не стоит. За последние несколько лет вычислительная мощность устройств выросла в триллионы раз. Сегодня телефон мощнее любой технологии, которую можно было бы вообразить всего десять лет назад, но при этом сам человек за десять лет практически не изменился. Как только мы чуть-чуть сдвигаемся с мёртвой точки, социальные сети обгоняют нас на миллионы шагов. Этот цикл бесконечен. Технологии всегда будут впереди, и с этим остаётся только смириться.

Подобие искусственного интеллекта уже, по сути, управляем миром, только это не терминатор из Скайнета, а алгоритм ленты в социальных сетях и поисковой выдаче. Каждый день алгоритм адаптируется к новым условиям с одной целью — удержать вас в ленте как можно дольше. Он настолько великолепно справляется с этой задачей, что люди потеряли контроль над этой системой.

Ни один инженер или программист никогда не сможет спрогнозировать, что именно алгоритм покажет вам завтра.

Само собой, из-за такого развития алгоритм стал преображаться и даже искажаться — порой в колоссальных масштабах. Представьте, что Википедия будет показывать вам персональное определение того или иного термина. Она будет следить за вами и знать, что вы ели на завтрак. Персональный результат поможет продать вам то, за что платит рекламодатель. Это самая настоящая нативная интеграция в далеко не нативную среду.

Продавцы «правды»

Ради эксперимента предлагаю вам ввести в Гугле «Изменение климата это...» и посмотреть, как поисковик продолжит вашу фразу. А теперь включите VPN и поставьте геолокацию в другой стране. Что Гугл показал вам теперь? Поменяйте страну ещё пару раз и посмотрите, как меняется выдача. Будет примерно следующее:

«Изменение климата — это ложь»
«Изменение климата — это проблема человечества»
«Изменение климата — это нормально»

И всё меняется банально из-за того, что в разных странах свой подход и взгляд на ситуацию. Достаточно хороший пример?

Даже если два близких друга зайдут в ленту, они увидят два совершенно разных мира. Алгоритм подбирает идеал для каждого из нас. Это как миллион версий «Шоу Трумана». У вас появляется чувство, будто все вокруг согласны с вашим мнением, и как раз в этот момент вами очень легко манипулировать. В этот момент ваша бдительность ослаблена, и вам можно буквально подсунуть любой факт, с которым вы в итоге будете полностью согласны.

К сожалению, эта проблема стала иметь более серьёзные последствия из-за того, что алгоритм не разделяет ваши предпочтения в кухне и политические взгляды, ему всё равно, на какую тему «промывать» вам мозг.

Из-за нового алгоритма политические распри стали сильнее в десятки раз. Люди думают, что алгоритм создан, чтобы показать им то, что они хотят, но по факту они хотят то, что им показывают. Это можно назвать серьёзной проблемой дезинформации.

Что общего у вышек 5G и трагедии в Мьянме

Представьте, что вы наткнулись на фейковую новость. Алгоритм заметил, что вы на ней задержались, а после этого стал активнее закидывать вас аналогичными материалами. Драматизма добавляет тот факт, что фейковые новости распространяются в шесть раз быстрее, чем настоящие, потому что «реальность скучна».

Объединив эти тезисы и учитывая мощность алгоритма в социальных сетях, мы можем понять, что это настоящая проблема. Возьмём новости о том, что коронавирус придумала какая-то страна, или что вышки 5G уничтожат человечество, а пиццерии по всему миру спонсируют чёрный рынок. Звучит как бред, мы это понимаем, но по факту миллионы людей верят в это без сомнений, и это имеет катастрофические последствия.

Например, есть многонациональное государство в Юго-Восточная Азии, которое называется Мьянма. Для местных жителей Facebook — это весь интернет. Они погружены в него полностью. Из-за того, что среди них распространяли ложную информацию о мусульманах, всё закончилось уже не виртуальными, а самыми настоящими восстаниями, гонениями и огромным количеством смертей. Сотни тысяч мусульман бежали из Мьянмы, и даже сам Facebook не смог это остановить. Алгоритм оказался сильнее.

Более свежий пример: помните протесты в Гонконге? Постройте логическую цепочку.

Но проблема не в технологии

Мы ищем в социальных сетях правду, но сами не знаем, что из этого правда. Для каждого она своя, но проблема в том, что из-за социальных сетей война разных «правд» набирает обороты каждую секунду и превращается в экзистенциальный вопрос. При этом технологии не уничтожают человечество, в них кроется бесконечное количество пользы. Проблема только в модели использования технологий самими компаниями.

Их погоня за деньгами превратила вас в товар. Нет должного регулирования, правил и модерации, но как только они появятся, есть все шансы, что и эта новая «супермодерация» превратится в очередной инструмент манипуляции. Круг замкнулся.

От себя хотелось бы добавить следующее: изучайте разные, максимально полярные взгляды на одну ситуацию и создавайте своё мнение. Используйте социальные сети правильно.

Мнение редакции может не совпадать с мнением автора. Ваши статьи присылайте нам на 42@cossa.ru. А наши требования к ним — вот тут.





Чем живёт диджитал?
Главное — в рассылке: