ИНТЕЛРОС > №8, 2015 > Редакторская

Евгений Логинов
Редакторская


21 мая 2015

«Да, — он махнул рукой и потянулся за зажигалкой, — весь автостоп скоро закончится. Будет искусственный интел­лект фуры катать. Хотя, может быть, и у них совесть вместе с мозгами появится, кто знает».

Добрый дальнобойщик, трасса М10, 2014 год.

РедакторскаяФиниковый компот немного сменил фор­мат: теперь мы стали чуть-чуть серьезнее. И мы выяснили удивительную вещь: скучная академическая тема возможности сознания, реализованного на небиологическом носителе, привлекла к работе над номером гораздо больше людей, чем наши прошлые топики, например, философия лени, философия курения, философия смеха или философия видеоигр. Я рад, что так произошло. С другой стороны, не такая уж это и кабинетная тема. Достаточно сказать, что она не отпускает чувствительных к повестке дня кине­матографистов: «Скоро вернусь» (серия «Черного зерка­ла»), «Превосходство», «Страховщик», новые «Мстители», «Ex Machina», очень милый «Робот по имени Чаппи» и многие другие фильмы посвящены этой теме. Готовится к выходу ремейк «Терминатора». Обзор художественных воплощений ИИ читайте в статьях Елены Бояршиновой (философский факультет МГУ) и Николая Герасимова (Дом русского зарубежья им. А.Солженицына), а о том, почему Нео был избран, а Джон Коннор — нет, вы узнае­те из эссе Евгения Быкова (факультет гуманитарных наук ГУ-ВШЭ).

Видимо, наши познавательные способности устроены так, что, рассуждая о предельных основаниях человеческой природы, нам удобно иметь пред глазами пример чего-то нечеловеческого. Вряд ли это необходимое ус­ловие. Но, скажем, схоласты очень любили упражняться на ангелах. Если ангел — это нечто существующее, и существующее бестелесно, то как возможно передвиже­ние ангела? Ведь движение, по Аристотелю, предполагает материальный субстрат движущегося. Не менее важны и исследования в области языка ангелов. Ведь для языка нужно слово, а слово материально, так как же могут раз­говаривать посланцы Бога? Насколько я знаю, теории ан­гельской речи сделали возможной концепцию ментального языка Оккама, которая во многом предвосхитила позити­вистскую теорию языка. Возможно, в нашем следующем номере мы сможем рассказать об этой проблеме больше. Другими важными объектами для мыслительных экспери­ментов от века служили Бог, животное и стол. Сейчас же таким нечеловеческим выступает машина. Без преувеличе­ния можно сказать, что машинное и реализованное на нем виртуальное — настоящий ключ к современной филосо­фии, как аналитической, так и континентальной.

Наш аналитический блок представлен статьями Артё­ма Беседина (философский факультет МГУ), Дмитрия Волкова (Московский центр исследования сознания при МГУ), Марии Ананиной (ФФ МГУ), Кирилла Загустина (ФФ МГУ), Ивана Позднякова (психфак МГУ) и Андрея Мерцалова (ФФ МГУ). Кроме того, мы публикуем интер­вью Джона Сёрла, автора знаменитой «Китайской комна­ты». Именно этот аргумент прямо или косвенно пытаются опровергнуть вышеперечисленные авторы. Сёрла гармо­нично дополняет Филипп Гофф, молодой британский панпсихист и последователь Дэвида Чалмерса.

Китайская комната

В 1980 г. Джон Сёрл предложил аргумент, который до сих пор находится в центре внимания философии ИИ. Тьюринг допустил, что мы и есть сложные маши­ны для вычислений, и Сёрл принял вызов: а давайте человек, о котором мы точно знаем, что он сознателен, сядет в комнату, но будет вести себя не как человек, а как машина, а именно — манипулировать символами. Я сижу в закрытой комнате с русскоязычной инструкцией по манипулированию китайскими символами. Я не знаю китайского и не смогу отличить иероглиф от простой закорючки. От экзаменаторов в комнату приходят сооб­щения по-китайски, и я, следуя правилам, на иероглиф А отвечаю иероглифом В. Предположим, что инструкция написана так, что я могу составить ответ на любой за­данный вопрос. Тогда комната пройдет ТТ, но я ничего не пойму. Значит, ни о каком понимании у машин речи быть не может. Общий вывод Сёрла: синтаксиса недоста­точно для семантики, а значит, ИИ невозможен. За 20 лет до аргумента Сёрла советский физик и писатель-фантаст Анатолий Днепров опубликовал рассказ «Игра», где с изяществом предвосхитил выводы Сёрла. Читайте об этом в статье Артёма Беседина.

Системное возражение

Можно возразить: да, я не понимаю, но вся комната понимает. Сёрл даст простой ответ. Суждение «я и бумага, на которой написаны инструкции, понимаем» — контрин­туитивно. В бумаге нет ничего, что могло бы понимать. Кроме того, я могу просто зазубрить всю «книгу правил» и выйти из комнаты в чисто поле. Я и в таком случае пройду ТТ, и всё равно ничего не пойму.

Светящаяся комната

Перенесёмся в 1894 год, когда Дж. Максвелл уже открыл, что свет — это электромагнитные волны, но еще не обрёл признания. Согласно его идее, если человек в тёмной-тём­ной комнате начнёт перемещать магнит вверх-вниз, от магнита начнут распространяться электромагнитные волны, и в комнате станет светлее. «Но позвольте, — мог­ли бы возразить мы ему, — в комнате совершенно тем­но!» Мы даже могли бы формализовать наше возражение: (1) Электричество и магнетизм суть физические силы; (2) Существенное свойство света — свечение; (3) Эти силы сами по себе не являются сущностью свечения. А это значит, что электричество и магнетизм не являются сущностью света и недостаточны для его наличия. Такое возражение, утверждают Пол и Патрисия Чёрчленды, по форме было бы идентично сёрловскому: (1) Компью­терные программы — это формальные (синтаксические) объекты; (2) Человеческий разум обладает смысловым содержанием (семантикой); (3) Синтаксис сам по себе не является сущностью семантики и его не достаточно для семантики. Согласно Сёрлу, это значит, что программы не являются сущностью разума и их наличия не достаточно для существования разума. Вывод, который делает Сёрл, столь же абсурден, что и возражения Максвеллу. В обоих случаях предпосылка (3) интуитивно выглядит правдопо­добной, хотя является ложной. У Сёрла, утверждают они, нет достаточных оснований настаивать, что определённое манипулирование символами не сможет породить семан­тики, и он просто спекулирует на том, что мы пока недо­статочно знаем биологические основания сознания.

Аргумент от объективности реализации

Аналогичный аргумент, демонстрирующий некор­ректность логического вывода Сёрла, приводит Дэвид Чалмерс. (1) Рецепты синтаксичны; (2) Синтаксис недо­статочен для рассыпчатости; (3) Пирожные рассыпчаты. Значит, реализации рецепта недостаточно для пирожного. Это очевидно ложное рассуждение Чалмерс сопоставляет с рассуждениями Сёрла о синтаксисе и семантике. Он полагает, что проблема Сёрла заключается в том, что он совершенно не различает программы и их реализации. Да, программ самих по себе недостаточно для сознания, но вот реализованных на чем-то программ — вполне.

Индексикальные вопросы

За 35 лет с момента создания аргумента Китайской Ком­наты (КК), каждое слово в исходной статье Сёрла было оспорено и подвергнуто сомнению. Философы пытались показать, что человек в Комнате всё же понимает ки­тайский (бессознательно, вместе с инструкцией, вместе с программистами, поймет со временем и т.п.); утвержда­ли, что существует только синтаксис, а ментальное содержание сознания — миф; что Сёрл должен имитировать не только поведение, но и реальную внутреннюю работу моз­га, и т.д. Об экстравагантности приводимых возражений красноречиво свидетельствуют названия соответствующих работ: «Квантовая лингвистика и Китайская Комната», «Сознания, программы и китайские философы: китайская перспектива Китайской комнаты», «От Китайских комнат к Ирландским комнатам» и даже «Мышь-зомби в Китай­ской комнате».

Продолжет традицию странных названий статья профес­сора Вадима Васильева «Кока-кола и секрет Китайской комнаты». Васильев обратил внимание, что еще никто не атаковал предпосылку, что КК в принципе может пройти ТТ. Утверждалось, что для продуцирования ответов ей понадобится невероятное количество времени, что человек не сможет написать или интериоризировать соответству­ющие инструкции, но такие возражения Сёрл парирует напоминанием, что это всё-таки мысленный эксперимент. Чтобы оспорить его посылки, нужны концептуальные средства. Васильев замечает, что в лингвистическую ком­петентность входят способность отвечать на индексикаль­ные вопросы. Например: «сколько времени?», «что стоит на столе?» и т.д. Может ли на них ответить Сёрл, сидя­щий в Комнате? Как должна быть написана инструкция в таком случае? Видимо, она должна гласить: «если вопрос содержит последовательность иероглифов XYZ, посмотри на стол, и, если там стоит банка Колы, ответь иероглифом N (банка Колы)», либо «если XYZ, отвечай M (я не знаю / я слепой и не вижу)». Если Сёрл будет систематически отвечать «М», мы заподозрим неладное. А в первом случае у него просто появится понимание.

Чтобы спасти эксперимент, Сёрл предлагает модифика­цию с Китайским Роботом. Пусть Робот обладает датчи­ками, которые Сёрл может задействовать согласно ин­струкции, и данные с них поступают ему в «письменной» иероглифической форме — такой, что Сёрл не будет пони­мать их значения. Тогда Комната сможет отвечать на ин­дексикальные вопросы и пройдёт ТТ. Сёрл утверждает, что вариация с Китайским Роботом идентична Комнате. Но если допустить Робота, Сёрл не будет знать всю про­грамму, требуемую для ответа, а если узнает её, то узнает и таблицу соответствий сенсорных данных иероглифам и обязательно обретёт понимание, что подорвёт весь экспе­римент.

Ответ Сёрла на это возражение читайте в нашем интер­вью с ним. Тема индексикальных вопросов развивается в статьях Дмитрия Волкова «Аргумент внутреннего време­ни» и Кирилла Загустина «Китайский агент».


Вернуться назад