18. Философия ИИ
Текст видео
Приветствую вас, друзья. Это курс по основам Искусственного Интеллекта, здесь Роман Душкин, и у нас восемнадцатое занятие, то есть мы сегодня переходим экватор. Можно поздравить с этим друг друга, а в честь такого знаменательного события я приготовил вам одну из самых интересных тем в философии Искусственного Интеллекта. И сегодня мы рассмотрим Китайскую комнату. Приготовились? Поехали…

Искусственный Интеллект будоражил умы ещё в середине XX века, когда термин только начал набирать популярность. Но уже тогда учёные, исследователи, разработчики, журналисты, деятели массовой культуры и просто обыватели пытались понять, можно ли создать машину, которая будет мыслить так же, как и человек. И вот в качестве попытки ответа на этот вопрос в 1980 году философ Джон Сёрль предложил мысленный эксперимент, который он назвал «Китайская комната». Целью философа было предоставить операционный аргумент против Сильного Искусственного Интеллекта. Давайте посмотрим, удалось ли ему это.
Представим себе запертую комнату, внутри которой сидит человек, не понимающий ни одного китайского иероглифа. Ну вот я там сидеть никак не могу, поскольку с пару десятков иероглифов понимаю. Так что, наверное, это кто-то из вас. Ну так вот, сидит кто-то из вас в этой комнате, всё общение которой с внешним миром происходит через узкую прорезь в запертой двери. Оттуда приходят записки, и вы тоже можете передавать туда записки. У вас много писчей бумаги, у вас достаточно воды и еды, чтобы не умереть от голода и жажды. В общем, у вас всё есть. А ещё у вас есть огромное количество томов, написанных на русском языке, в которых перечислены правила манипуляции иероглифами. Допустим, есть такое правило, как «Если видишь иероглиф ЖЭНЬ, То напиши на первом промежуточном листке иероглиф ВАН». Ну и таких правил мириады. Зато вы отлично в них ориентируетесь. Да и у вас нет никаких ограничений по времени — когда из прорези в двери влетает записка, вы её берёте и можете потратить сколько угодно времени, чтобы при помощи правил в книгах сформировать ответную надпись и отправить её назад. Внимание, вопрос: «Понимаете ли вы китайский язык?»

И вот в прорезь в двери внезапно падает бумажка. Вы подходите к ней, поднимаете и видите кучу замысловатых символов. Вы садитесь за свой рабочий стол и начинаете применять правила. Через какое-то время процесс заканчивается, и у вас в руках находится новая полоска бумаги с написанными на ней не менее замысловатыми символами. Вы просовываете её в щель и в изнеможении падаете на кровать — ваша голова пуста от умственного напряжения. А что произошло снаружи? Снаружи к китайской комнате подошёл китайский человек и опустил в прорезь надпись, которую можно перевести как «Вам нравится сливовое вино?», а через какое-то время он получил ответ: «Да, и при этом смотреть на Луну в тихом плеске реки». Китайский человек возьмёт ответ и подумает при помощи своих замысловатых иероглифов: «О, эта китайская комната говорит довольно изысканно». Что это такое? Как такое возможно? Вы же ничего не понимаете в китайской грамоте? Но почему получилось так, что комната в целом отработала так, как будто бы понимает китайский язык и умеет на нём изысканно изъясняться?
Джон Сёрль, философ
Вы уже поняли, что Китайская комната — это компьютер, книги с правилами — база знаний или что бы то ни было для представления знаний о манипуляции синтаксическими конструкциями естественного языка, человек внутри — процессор. Так вот по аргументации Джона Сёрля китайская комната пройдёт тест Тьюринга, хотя никакого понимания языка внутри неё не возникнет. Борьба и преломление копий на эту тему идёт уже более 35 лет, и философы никак не могут прийти к какому-то решению.

Но давайте рассмотрим этот эксперимент в более расширенном виде. Возьмём ребёнка, вот только что родившегося ребёнка. Он — это и есть китайская комната, и у него в голове кто-то сидит и не понимает ничего. Есть только самые базовые рефлексы, доставшиеся нам от гоминид и ещё более древних предков. Но как только ребёнок вылез из утробы, он начал получать огромное количество стимулов. Он не сидит запертым в китайской комнате, он постоянно видит, слышит, чувствует запахи, осязает, чувствует боль, температуру, положение своих рук и ног — весь этот огромный массив информации постоянно бомбит того, кто сидит у него в голове. И к этому ребёнку время от времени обращаются на естественном языке. Соответственно, тот, кто сидит у него в голове будет постепенно связывать ассоциативными связями совокупность значений сигналов от внешних и внутренних рецепторов с теми последовательностями звуков, которые приходят через уши. Потом начнётся целенаправленное обучение — «Смотри, это цветочек. А это бабочка». И вот уже тот, кто сидит в голове у ребёнка, начинает связывать конкретные слова как с конкретными образами, так и с классами символов. У него формируется понимание, что символ «цветочек» связан с символами «радиально-симметричное», «цветное», «растение» и так далее — с мириадами таких символов и классов. Всё это переплетается в тугой клубок ассоциаций.
А в какой-то момент рождается осознание. Оно появляется намного позже, чем формируются первые навыки речи. Так что до появления осознания ребёнок не понимает, что говорит в ответ на вопросы, хотя отвечает обычно правильно. «Хочешь кушать?» — «Да», и этот ответ создан бессознательно на основании довольно сложной рефлекторной реакции, учитывающей огромное количество факторов, в том числе и сигналы с хеморецепторов и гипоталамусе маленького человека. Ребёнок не понимает сути сказанного слова, но знает, что если сказать именно его, то далее его покормят, наступит эмоциональная разгрузка того напряжения, которое создаёт избыток грелина в крови. Грелин — это гормон голода. Так вот только после рождения осознания ребёнка можно назвать сознательным, интеллектуальным существом. Мы наблюдаем рождение сознания многажды и многажды, но не можем уловить его сути.

Почему так же не может получиться с рождением осознания у Сильного Искусственного Интеллекта? Давайте вновь определимся. Слабому ИИ никакое осознание не требуется. Аргумент Китайской комнаты бессмысленно рассматривать в применении к Слабому ИИ. А вот относительно Сильного этот аргумент лично мне кажется бессмысленным. Сам эксперимент изначально поставлен не так, как следует — описана работа Слабого ИИ, а вопрос задаётся относительно Сильного Разве так можно? Да и пусть искусственная система, называемая «искусственным интеллектом для обработки естественного языка» пройдёт тест Тьюринга, не понимая, что она говорит. Что это меняет? Ни-че-го! Сильный ИИ, если он появится вот в таких условиях, как я описал, по своей собственной воле будет определять, имеет смысл ему проходить тест Тьюринга или нет. Мы это уже обсуждали.

Всё это я рассказал вам для простой цели. Когда вы слышите что-то про Искусственный Интеллект, всегда задавайте себе вопрос: «Не путают ли они два понятия?». А то получится, как тут — великие умы 35 лет бьются над задачкой, которая яйца выеденного не стоит. На этой животрепещущей ноте я вас покидаю. Надеюсь, что вы уже написали своё эссе, и мы скоро сможем их почитать. Ну а пока выполняйте домашнее задание. Всем добра и до встречи на следующей неделе, когда начнётся второй модуль нашего курса.
Самостоятельная работа
Задание 1

Прочесть все материалы по ссылкам выше

Задание 2

Сдать проверочный тест
Есть вопросы? Отлично, задавайте!
Лучшие эссе наших студентов
Предыдущие уроки

Урок № 1: ИИ и две зимы здесь
Урок № 2: ИИ и междисциплинарные исследования здесь
Урок № 3: Две парадигмы здесь
Урок № 4: Интуитивный подход и тест Тьюринга здесь
Урок № 5: Символьный и логический подходы здесь
Урок № 6: Агенты и роевой интеллект здесь
Урок № 7: Гибридный подход здесь
Урок № 8: Гибридный подход здесь
Урок № 9: Некоторые мифы об ИИ — 1 здесь
Урок №10: Некоторые мифы об ИИ - 2 здесь
Урок №11: Некоторые мифы об ИИ — 3 здесь
Урок №12: Правда об ИИ - 1 здесь
Урок №13: Правда об ИИ - 2 здесь
Урок №14: Правда об ИИ - 3 здесь
Урок №15: Несколько успешных примеров ИИ-проектов — 1 здесь
Урок №16: Несколько успешных примеров ИИ-проектов — 2 здесь
Урок №17: Несколько успешных примеров ИИ-проектов — 3 здесь