Журнальный клуб Интелрос » Курьер ЮНЕСКО » №3, 2018
Мы необратимо движемся к повсеместной автоматизации и искусственному интеллекту с почти беспредельными возможностями. Исключительно важно определить все этические последствия новых технологий и подготовиться к решению беспрецедентных правовых и социальных проблем, которые могут возникнуть в будущем.
Ти Ви Анг и Дафна Фейнхольц (ЮНЕСКО)
Новые технологии время от времени заставляют нас задуматься о месте и роли человека. Появление искусственного интеллекта (ИИ) требует глубокого осмысления его потенциальных, далеко идущих последствий. Хотя эти технологии владеют нашим коллективным воображением уже несколько десятилетий, они только сейчас стали реально прорастать в нашей жизни.
Последние достижения в сфере ИИ, особенно касающиеся машинного и глубокого обучения, показывают, что эти системы могут во многом превосходить людей в эффективности – в частности, в решении задач, задействующих когнитивное мышление. Таким образом, ИИ может служить человечеству мощным источником прогресса и благ, но может и подорвать социально-экономические и политические основы общества.
Прежде чем рассуждать об этических последствиях ИИ, следует разобраться в том, что он собой представляет. Говоря об ИИ, обычно подразумевают «ограниченный» или «слабый ИИ», предназначенный для выполнения какой-либо конкретной задачи: анализа и оптимизации автомобильного трафика, подборки рекламы в Интернете на основе предыдущих покупок и т. п. Такой «слабый ИИ» уже существует, но он непрерывно усложняется и все больше проникает в нашу повседневную жизнь.
На данный момент у нас нет оснований говорить о так называемом «сильном» или «общем ИИ», примеры которого можно встретить в научно-фантастических романах и фильмах. Он, предположительно, мог бы выполнять весь спектр человеческих когнитивных действий и, по мнению некоторых экспертов, даже обладать относительным «сознанием». Мы все еще далеки от консенсуса относительно осуществимости и перспектив реализации такого ИИ.
Для машинного и глубокого обучения требуется большое количество данных за прошедшие периоды и данных, получаемых в режиме реального времени, благодаря которым система ИИ может обучаться на собственном «опыте». Помимо этого необходима инфраструктура, позволяющая ИИ выполнять свои задачи и достигать целей на основе того, что он узнал. Таким образом, при рассмотрении этических последствий ИИ следует учитывать сложную технологическую среду, которая нужна для его функционирования. Эта среда включает в себя постоянный сбор так называемых больших данных (Big Data) из Интернета вещей, их сохранение в облаке (Cloud), их использование искусственным интеллектом для своего «обучения», а также выполнение им анализа или других задач в рамках «умных» городов, беспилотных транспортных средств, роботов и т. п.
С усложнением развития технологий сложнее становятся и этические вопросы, которые они поднимают. Сами этические принципы могут оставаться неизменными, однако то, как мы их применяем, может кардинально поменяться. В результате эти принципы могут – осознанно либо нет – подвергнуться значительному переосмыслению.
Например, полностью может преобразоваться наша концепция частной жизни, конфиденциальности и независимости. Благодаря «умным» устройствам и приложениям, которые широко используются такими социальными сетями, как Facebook и Twitter, мы добровольно делимся своей частной информацией, не вполне понимая, кем и как эти данные могут использоваться. Они передаются в системы ИИ, которые в основном регулируются частным сектором. Эти данные не анонимны, поэтому информация о наших предпочтениях и привычках может служить для создания моделей поведения, позволяющих ИИ слать нам, например, сообщения политического свойства, предлагать купить то или иное приложение или отслеживать наши действия, связанные с медицинским обслуживанием.
Не означает ли это конец нашей частной жизни? Что будет с информационной безопасностью и возможностью взлома? Могут ли эти данные попасть в руки государства, которое может использовать их для контроля над населением в ущерб индивидуальным правам человека? Не ограничатся ли наши свобода выбора и творчество из-за того, что ИИ постоянно следит за нашими предпочтениями и использует их, чтобы предлагать те или иные варианты?
Другой важный вопрос: не содержится ли в данных, используемых для обучения ИИ, предвзятых идей и предрассудков, которые могли бы «подтолкнуть» систему к дискриминационным или стигматизирующим «выводам»? Это особенно актуально в отношении интеллектуальных систем, предназначенных для непосредственного взаимодействия с людьми или распределения социальных услуг. Нам следует осознать, что некоторые данные – черпаемые, в том числе, из Интернета – содержат информацию, отражающую как лучшие, так и худшие наши стороны. Используя их для обучения ИИ, невозможно гарантировать отсутствие нежелательных последствий в плане этики, и поэтому прямое вмешательство человека является необходимым.
Можно ли обучить ИИ этичному поведению? По мнению ряда философов, определенные качества – в частности, эстетичность и этичность – присущи только человеку и не поддаются программированию. Другие считают, что нравственные качества могут быть рациональными, а значит, их можно программировать при условии соблюдения свободы выбора. В настоящее время нет единого мнения даже о том, можно ли учить людей этике и морали исключительно на рациональной основе. Не говоря уже об обучении ИИ! И даже если можно было бы запрограммировать ИИ на этичное поведение, то на основе какой этики? Этики разработчиков? Но ведь разработка ИИ находится в руках частного сектора, этика которого может не соответствовать той, которая преобладает в обществе.
Чтобы ИИ развивался во благо, а не во вред людям, нужна всесторонняя дискуссия, учитывающая этические воззрения всех людей, кого это касается. Ввиду общественных потрясений, причиной которых он может стать, необходимо сделать так, чтобы этические рамки, регулирующие его дальнейшее развитие, учитывали и более широкие аспекты, включая вопрос о социальной ответственности.