«Единственный способ не устареть — не потерять человечность». Вопрос этики в искусственном интеллекте. Читайте на Cossa.ru

12 декабря 2018, 14:20

«Единственный способ не устареть — не потерять человечность». Вопрос этики в искусственном интеллекте

Колонка Ольги Литвинец, руководителя отдела маркетинговых исследований в Fairmarkit. Ольга пишет диссертацию по этике искусственного интеллекта в маркетинге в университете Париж-Сорбонна — публикуем её материал для читателей Cossa.

Сократ в 3D-рендеринге — VictorVector / Shutterstock

«В этой гигантской технологичной машине по распределению жизней человек чем дальше, тем сильнее чувствует себя монеткой, брошенной в щель, проскочившей по предназначенным ей ходам и выброшенной с другого конца в виде пенсионера или трупа. Чтобы выйти из небытия, можно либо заново объединяться в племена, как хиппи или сектанты, либо попробовать проявить себя в каком-нибудь смертельном действе, „отомстить“ за себя».

Ромен Гэри, Белая собака

Доступ к информации упростился. Объём данных, которые производят хотя бы наши поисковые запросы, растёт с невероятной скоростью. С появлением искусственного интеллекта мы научились лучше обрабатывать эти данные, создавать модели, делать прогнозы. Технологический прогресс упрощает ежедневные интеллектуальные и рутинные действия, и нам нужно успевать адаптироваться, чтобы не устареть и не быть выкинутыми за борт экоситемы. Чем дальше, тем больше возникает вопросов: кто мы, куда движемся.

Парадокс конфиденциальности: за пределами GDPR

61% пользователей размещают голосовой помощник на кухне. Голосовые помощники ищут рецепты, заказывают пиццу, рассказывают истории. Но что о нас знают Alexa, Siri, Cortana, Google и Алиса? Наш голос, голоса наших детей, лица, истории поиска, привычки, наших друзей. Вопрос в том, что будет со всеми этими данными?

Мы должны бояться не ИИ, а того, как и кто его будет использовать.

В мае 2018 года в был введён общий регламент по защите данных — GDPR. Это комплексный документ, целью которого является гарантия конфиденциальности и контроль пользователя за его персональными данными. Регламент по защите данных заставляет сайты быть более прозрачными: личная информация должна быть зашифрована, а сайты должны предоставлять каждому пользователю возможность удалять свою учётную запись, но и пользователь должен явно дать согласие на сбор данных.

Но несмотря на неоспоримый прогресс с введением этого регламента, этический аспект массового использования данных основан на парадоксе конфиденциальности: даже без преднамеренного афиширования в интернете личной жизни все ключевые слова наших поисковых запросов, содержание мобильного телефона и компьютера, а также телефонные звонки и данные электронной почты можно отследить и расшифровать. В США этика и политика вступили в открытый конфликт, противопоставив, с одной стороны, ответственных граждан, выявивших злоупотребления спецслужб в отношении неприкосновенности частной жизни, а с другой стороны, те же демократические правительства.

Речь не только о мелких технических недостатках алгоритмов, которые возникли скорее из-за невнимательности и невозможности предвидеть все решения искусственного интеллекта, вызывающие морально и социально неприемлемое поведение. Например, когда Google поставил теги на изображениях и идентифицировал афроамериканцев как горилл, или когда чатбот Microsoft был удалён после того, как начал выдавать расистские твиты. Эти случаи скорее про человеческий фактор и могут быть исправлены относительно легко.

Социальный рейтинг

С другой стороны, такие проблемы, как с Facebook и его Fake News и манипуляции общественным мнением, не так легко решить. Основа бизнес-модели корпораций не тотальная слежка, а зарабатывание денег. Не говоря уже о том, что законодательство европейских стран стало гораздо строже. Реальная политическая и этическая сложность заключается в том, что, например, правительство Китая использует ИИ для создания социального рейтинга. Вся информация о пользователе в интернете: его поведении, его покупках, его кредитной истории, его передвижениях, его социальной среде — всё объединяется в систему и присваивает каждому человеку баллы. Мы уже видели это в одной из серий «Чёрного зеркала».

Тотальная слежка вызывает больше опасений, чем всё против чего она должна была бы защищать нас.

Всё это ставит под сомнение демократию, неприкосновенность частной жизни, безопасность и даже сущность человека. Действительно, какова роль человека в технологической экосистеме?

Что делает человека человеком?

Теперь перейдём к философии. Согласно Гегелю, у людей, как и у животных, есть естественные потребности и желания, такие как еда, питьё, приют и прежде всего самосохранение. Но человек отличается от многих животных, потому что он хочет получить признание. Эта потребность в признании побуждает человека производить товаров и услуг ещё больше, что способствует развитию технологий, а это и привело нас к консюмеризму, который совсем не отвечает потребностям человека, а скорее наоборот, только усугубляет ситуацию.

Желание признания привело к развитию социальных сетей, что в качестве побочного эффекта привело к глобальному сбору личной информации.

По словам Льюиса Мамфорда, человек — тот, кто производит инструменты. Но производит ли он их ещё? Или продукты производят себя сами? Техника, по сути, уже не является средством, а стала самоцелью. Например, мы изобрели электрическую бритву для экономии времени, поэтому мы можем потратить время на создание более эффективной бритвы, чтобы сэкономить еще больше времени, чтобы создать ещё более быструю бритву.

Мы живем в технологиях и ради технологий.

Технология как среда существования человека превращает его в инструмент его собственного развития.

Гюнтер Андерс однажды блестяще защитил концепцию устаревания человека и показал, как мы оказались в стороне от технического процесса: человек становится своего рода придатком к вездесущему рекламному феномену в мире массового потребления. Машины производят машины в техническом бегстве, которое Хайдеггер в своё время характеризовал как «испытание без темы».

Идея Френсиса Фукуямы о конце истории и последнем человеке подчёркивает опасность процветающей эпохи потребления, вызванная триумфом техники, которая может привести к уничтожению человечества с развитием биотехнологии. Никак не помогая развитию и совершенствованию человеческой натуры, такой неконтролируемый прогресс скорее приведёт к возникновению пугающего «пост-человечества».

Как наши данные стали продуктом

Технологии искусственного интеллекта в маркетинге и рекламе становятся всё более вездесущими и незаметными, постоянно сокращают пространство предполагаемой свободы выбора для каждого отдельного потребителя.

Разве не в этом лежит страшный парадокс нашего мира, который всё больше вкладывается в ИИ? Действительно, современные общества построены на ценности личности, способной к свободным решениям. В целом эта способность называется «автономией» индивида и считается основополагающим источником автономии обществ через демократические политические институты. Тем не менее вся динамика наших современных обществ идёт в сторону обострения контроля над людьми с помощью ИИ, при этом полностью отрицая ценность автономии.

Большинство технологий, которые бросают вызов личной свободе, разрабатываются компаниями, бизнес-модель которых основана на сборе и обработке персональных данных пользователей. Само понятие товара также полностью преобразовано: это больше не товар или сервис, это данные. Мы сами, наши личные интересы стали товаром, потому что когда всё бесплатно, товаром является пользователь.

Какова взаимосвязь между искусственным интеллектом, маркетингом и философией?

Философы, безусловно, помогают нам задавать правильные вопросы. Технологии искусственного интеллекта в маркетинга и рекламе должны развиваться в соответствии с этическими и социальными принципами, а не только в своей собственной динамике.

В Европе об этом говорят часто. На конференции по Marketing Remix в Париже в 2018 году вопрос о социальной ответственности поднимался много раз. Компании всё больше понимают важность устойчивого развития и стремятся создавать ценности. Изабель Галли, основатель Центра искусственного интеллекта Франции, задала вопрос: «Можем ли мы доверять искусственным интеллекту?» во время конференции по вопросам ИИ «Convergence». Даже в рамках дня дипломатии в Министерстве Европы и Иностранных Дел во время обсуждения вопросов председательства Франции в G7 упомянули, что искусственный интеллект нуждается в разработке стратегий для его развития.

Негативные последствия технологических и научных достижения заставляют нас думать о личной и социальной ответственности. Конечно, это всё накладывает промышленные риски, особенно в области использования информационных технологий, развития интернета и обеспечения информационной безопасности. Концепция устойчивого развития, вдохновленная философией Ханса Джонаса и популяризированная в докладе Браудтланд «Наше общее будущее» в 1987 году, является эталоном этики.

В основе лежит простой критерий: развитие должно удовлетворять потребности настоящего, не ставя под угрозу свободу будущих поколений.

Поэтому наши технологические достижения не должны серьёзно подрывать способность выбора и не ставить под вопрос выживание тех, кому мы оставляем наш мир в наследство.

Способны ли компании, технологические гиганты, вовлечённые в рост ИИ, интегрировать этот принцип? Какое решение принимают ключевые игроки в этой области? Google, Apple, Facebook, Microsoft уже нанимают философов и специалистов по этике для разработки внутренних процессов. Но несмотря на все эти усилия, решения могут исходить не только из внутренней этической динамики участников в области ИИ. Интеграция этических принципов должна регулироваться национальными или международными организациями. Общественные правовые институты должны активно участвовать в этическом регулировании искусственного интеллекта.

Декларация об этике искусственного интеллекта

В декабре 2018 года в Монреале была подписана декларация ответственного искусственного интеллекта. Философы собрались в Канаде для разработки стратегии развития искусственного интеллекта.

Декларация содержит 10 основных этических принципов.

1. Принцип благополучия

ИИ должен использоваться только во благо.

2. Принцип уважения к автономии

ИИ должен усиливать контроль людей над своей жизнью и способствовать уважению автономии людей.

3. Принцип конфиденциальности и защиты частной жизни

Личная жизнь должна быть защищена системами сбора и архивирования личных данных. Люди должны иметь возможность контролировать свои данные и возможность их удалять. Это напоминает принципы регламента по защите данных GDPR.

4. Принцип солидарности

Системы ИИ должны разрабатываться для улучшения отношений между людьми людьми, включая и будущие поколениями.

5. Принцип демократического участия

Системы искусственного интеллекта должны быть понятными и прозрачными и доступным для проверки или открытого обсуждения.

6. Принцип справедливости

ИИ должен способствовать созданию справедливого и равноправного общества, никогда не создавать социальную, сексуальную, этническую, культурную и религиозную дискриминацию.

7. Прицип разнообразия

ИИ никогда не должен использоваться с целью ограничения свободы выражения и свободного выражения мнений.

8. Принцип осторожности

Все специалисты, связанные с разработкой ИИ, должны делать всё возможное, чтобы избежать неблагоприятные последствиями.

9. Принцип ответственности

Все люди могут и должны нести ответственность за решения AI. Все моральные решения должны приниматься людьми и никогда не переноситься на алгоритмы.

10. Принцип устойчивого развития

Этот принцип продолжает идею устойчивого развития. ИИ, как и все другие технологии, имеет сложные отношения с экологией. Принцип устойчивого развития должен обеспечивать достижение максимальной энергоэффективности за счет минимизации воздействия на нашу экосистему.

Работая вместе, философы, программисты, data-инженеры, маркетологи могут создавать условия для создания ценностей и развивать отрасли, соблюдая принцип устойчивого развития. Но это ещё не всё.

Для нас единственный способ избежать морального устаревания — взять на себя ответственность, прийти к осознанности, чтобы не потерять нашу человечность.

***

Версия материала на французском языке опубликована в издании Viuz.com.

При подготовке материала использованы источники:

  • Фрэнсис Фукуяма: «Конец истории и последний человек»
  • Гюнтер Андерс: «Устаревание человека»
  • Льюис Мамфорд: «Миф машины»
  • Ханс Йонас: «Принцип ответственности»

Мнение редакции может не совпадать с мнением автора. Ваши статьи присылайте нам на 42@cossa.ru. А наши требования к ним — вот тут.

Телеграм Коссы — здесь самый быстрый диджитал и самые честные обсуждения: @cossaru

📬 Письма Коссы — рассылка о маркетинге и бизнесе в интернете. Раз в неделю, без инфошума: cossa.pulse.is