Две парадигмы
Текст видео:

Приветствую вас, друзья. Мы продолжаем наш вводный курс по Искусственному Интеллекту, и сегодня у нас третье занятие. Я надеюсь, что всё рассказанное мной до сих пор вызывало у вас живой интерес и отклик, а потому сегодня я подобрал для вас крайне и архи интересную тему про грязный и чистый искусственные интеллекты. Ну первый произошёл от свиньи, валявшейся в грязной луже, в второй — от того парня с неврозом навязчивых состояний, который постоянно моет руки. Заинтригованы? Тогда погнали!

В некотором царстве, в североамериканском государстве были два друга-товарища — Марвин Мински и Джон МакКарти. Товарищами они были настолько неразлейвода, что каждый считал своим долгом мгновенно подвергнуть критике высказанные идеи коллеги. Если бы в дремучей древности мудрецы Сократ и Платон не сыграли друг с другом в двойной парадокс лжеца, то это наверняка бы сделали Марвин и Джон. Ну, к примеру, первый бы воскликнул: «Следующее высказывание друга Джона будет ложным», а второй бы сразу парировал: «То, что сказал друг Марвин, истинно». Ну как-то так, да.
Ну вот эти два замечательных человека собрались и организовали в 1959 году Лабораторию информатики и искусственного интеллекта в рамках Массачусетского технологического института. Это была первая лаборатория для исследования проблем и задач Искусственного Интеллекта, и тогда все были полны романтических надежд и устремлений в будущее. Например, можно вспомнить, что говорил Джон МакКарти за несколько лет до основания лаборатории: «Мы предлагаем исследование Искусственного Интеллекта сроком в 2 месяца с участием 10 человек. Кажется, что всякий аспект обучения или любое другое свойство интеллекта может в принципе быть столь точно описано, что машина сможет его симулировать. Мы попытаемся понять, как обучить машины использовать естественные языки, формировать абстракции и концепции, решать задачи, сейчас подвластные только людям, и улучшать самих себя. Существенное продвижение в одной или более из этих проблем вполне возможно, если специально подобранная группа учёных будет работать над этим в течение лета».
Марвин Мински в лаборатории Искусственного Интеллекта МИТ
У них ничего не вышло. Тем не менее, исследования в лаборатории шли полным ходом. И вот Джон МакКарти постепенно вводит в обращение основополагающие принципы искусственного интеллекта, которые позже будут названы «чистым подходом» или «нисходящей парадигмой» построения искусственных интеллектуальных систем. Во главу угла МакКарти поставил формальную логику и основанные на ней символьные вычисления. Название «чистый» этот подход получил потому, что он рассматривает чистые, можно сказать «платонические» формы высших психических функций сознания.
Здесь надо немного обратиться к строгой науке. Математика, как мета-наука или даже язык науки, часто любит оперировать так называемыми формальными системами. Формальная система — это такая достаточно простая математическая структура, которая позволяет описывать разного рода теории, простые, сложные и даже очень замысловатые. Формальная логика — это специальная формальная система, которая вводит два значения и несколько операций над ними. Дальше над формальной логикой надстраивается исчисление высказываний, ещё выше надстраивается исчисление предикатов первого порядка, ну а потом всевозможные исчисления предикатов высших порядков.
Для чего я вам всё это рассказал? Всё очень просто. Формальная система включает в себя так называемые правила вывода, которые позволяют автоматически вывести очень многие теоремы этой формальной системы из аксиом и ранее выведенных теорем. Фактически, это так называемое «манипулирование символами», когда новые теоремы получаются при помощи механического применения правил вывода к старым. Так вот нисходящая парадигма основана на гипотезе о том, что высшие психические функции сознания можно каким-то образом смоделировать при помощи сложных формальных систем, обрабатывающих символьную информацию. Гипотеза не пуста, так как мы внутри своей головы действительно как-то обрабатываем символьную информацию, но пока никто не знает, как именно. К тому же, против такого понимания мне сейчас сразу же должны возразить те из курсантов, кто вчера читал статью про теоремы о неполноте Курта Гёделя. Надеюсь, что это сделали все.
Тем не менее, механическое манипулирование символами позволяет решать очень много задач. В первую очередь, это различного рода вывод новой информации из имеющейся, поиск информации, доказательства и объяснения. Экспертные системы — это яркий образец реализации чистого подхода в искусственном интеллекте. Экспертные системы манипулируют символами в самом своём точном понимании этого слова. Хотя, конечно же, сложно сказать, что внутри экспертных систем сидит какое-то разумное существо. Но об этом мы поговорим чуть позже, когда обсудим парадокс Китайской комнаты. А, возвращаясь к экспертным системам, хочу сказать, что Аллен Ньюэлл и Герберт Саймон ещё в 1976 году разработали универсальный решатель задач, который представлял собой программное обеспечение, получавшее на вход формальное описание задачи и выводившее в результате некоторое решение. На базе этого решателя были созданы конкретизированные решатели для игры в шахматы, доказательства теорем евклидовой геометрии и многого другого. И тогда авторы ввели в научный оборот гипотезу, которая сегодня называется как раз гипотезой Ньюэлла — Саймона и утверждает, что физическая символьная система имеет все необходимые и достаточные средства для выполнения интеллектуальных функций. Это значит, что если гипотеза верна, то настоящий Искусственный Интеллект невозможно создать без символьных вычислений. Впрочем, доказать гипотезу не представляется возможным, хотя, как минимум, один подтверждающий пример у нас есть — это мы сами.
Аллен Ньюэлл и Герберт Саймон


Марвин Мински не стерпел такого положения дел и в пику своему другу Джону основал другое направление, которое позже было названо «грязным» или «восходящей парадигмой» искусственного интеллекта. Марвин заявил, что раз товарищ Курт запретил полные и непротиворечивые достаточно сложные формальные системы, то вряд ли нам удастся промоделировать интеллектуальные функции человеческого сознания при помощи символьного подхода. Но тогда надо взять в руки биологию, биохимию и нейрофизиологию, после чего попытаться смоделировать базовые, элементарные объекты и явления в нервной системе и биологии в целом. И тогда, возможно, при непрекращающемся таком моделировании в результате получится искусственный интеллект.
Вы должны уже были понять, что очевидным и самым ярким представителем этого подхода является искусственная нейронная сеть. Искусственные нейроны различных типов, множество которых было разработано с тех самых пор, когда Маккаллок и Питтс описали свою первую модель, являются базовыми кирпичиками построения нейронных сетей. И сегодня именно искусственные нейросети стоят во главе третьего хайпа, находясь в самой гуще исследований. Практически 99 % всех новостей об искусственном интеллекте и его сегодняшних достижениях связаны с использованием нейросетей. Другим направлением в рамках восходящей парадигмы можно назвать эволюционные алгоритмы, самым главным представителем которых являются генетические алгоритмы. Также можно вспомнить и про химические вычислительные системы, главным образом основанные на рибонуклеиновых кислотах. В общем, грязный искусственный интеллект моделирует самые базовые основы биологического интеллекта и через это пытается подняться к высшим психическим функциям. Пока тоже не получается.
Синий — нейроны входного слоя (фильтруют информацию)
Красный — скрытые нейроны (обрабатывают информацию)
Зеленый — выходной слой (формируют ответ ИНС как целого)
Но, между прочим, с этим согласен и такой замечательный учёный философ нашего времени, как Роджер Пенроуз. Он хотя и физик, но очень много размышляет над природой сознания, сильном искусственном интеллекте и связанных вещах. В качестве факультативного чтения очень рекомендую его книги «Новый ум короля» и «Тени разума». Переворачивают мировоззрение.

Роджер Пенроуз рядом с мозаикой Пенроуза
Но, между прочим, с этим согласен и такой замечательный учёный философ нашего времени, как Роджер Пенроуз. Он хотя и физик, но очень много размышляет над природой сознания, сильном искусственном интеллекте и связанных вещах. В качестве факультативного чтения очень рекомендую его книги «Новый ум короля» и «Тени разума». Переворачивают мировоззрение.

На этой позитивной ноте мы постепенно заканчиваем. Итак, в рамках исследований искусственного интеллекта есть два магистральных подхода — чистый и грязный. Чистый оперирует символами и идёт от непосредственного моделирования высших психических функций интеллекта, а грязный моделирует базовые элементы и через постепенное усложнение и системные переходы стремится взойти к этим же функциям снизу. Оба подхода имеют право на существование, оба включают в себя много различных формализмов и методов, о которых мы детально поговорим позднее. Но пока ни тот, ни другой не привели к успеху. А почему? Потому что истина где-то посередине.
Теперь приступайте к задачам. Жду ваших вопросов, идей, рассуждений и всего, о чём вы захотите мне рассказать в рамках этого занятия. Всем пока.
Популярные вопросы студентов
(Орфография и пунктуация студентов сохранены в большинстве случаев)
И каков вклад погрешностей,связанных с физическим носителем, в логические процессы в ИИ? Неужели никакого?
Боюсь, что на сегодняшний момент практически не слышно про исследования, связанные с какими-то вероятностными, стохастическими процессами. Хотя, конечно, формализмы для этого есть — это и аппарат нечёткой математики, и квантовые вычисления, и вероятностные вычислительные модели, недетерминированная машина Тьюринга, в конце концов. Однако пока искусственные интеллектуальные системы делаются на архитектуре фон Неймана, говорить о каких-то стохастических процессах в них невозможно — они подчиняются строгой формальной логике. В этом суть программирования. Другими словами, ИИ (слабый) пока представляет просто запрограммированный алгоритм. Сложный, разветвлённый, иногда самообучаемый, но алгоритм в традиционном понимании. И в нём нет места случайности. На исправление случайных ошибок даже направлены специальные методы теории информации по устойчивому кодированию. Ну и, кстати, вполне вероятно, что в этом может быть проблема, поскольку физический носитель интеллекта и логики у нас в голове вообще аналоговый и подвержен огромному количеству ошибок как в результате разного рода воздействий, так и в принципе из-за стохастической природы биовычислений, основанных на протекании химических реакций.
Можно ли вообще помехи использовать для создания "полезной" случайности? Она же как-то должна соотноситься с неполной познаваемостью?
Сложно ответить на этот вопрос, поскольку природа творчества и познания не до конца понятна (скорее, вообще не понятна). Но есть множество идей. Одна из таких идея заключается в том, что в голове у человека иногда разряды, бегающие по нейронам, могут перескакивать с нейрона на нейрон не через синапсы, а как бы непосредственно с сомы на сому или с аксона на аксон. В общем, это что-то типа эпилептического разряда, произошедшего из-за отсутствия миелинизации нервных путей. В большинстве случае такой перескок ни к чему не ведёт (у взрослых; у детей это может провоцировать именно эпилептические приступы или пароксизмы иного характера), но иногда это становится причиной озарения. Это гипотеза, но она включает в свой объяснительный компонент элементы случайности. Возможно, что где-то в чём-то она права.
Другой подход гласит, что мозг (и нервная система в общем) перерабатывает огромное количество неструктурированной информации вне поля внимания сознания, а потом, когда получен результат, привлекает сознание для рационализации. Либо подсознательные слои выдают результаты такой обработки в виде интуитивных прозрений. Или ещё как-то. Но тут я вижу чисто механистический подход, который очень просто ложится на технологию обработки больших данных. Если эта гипотеза верна, то как раз обработки больших данных и data mining принесёт нам много успеха на пути к ИскИну.
По идее геделевская неопределённость, хоть и формулируется в терминах математической логики, должна базироваться на физиологии нашего мозга, поскольку именно она создаёт эти системы с их погрешностью. Должны быть какие-то конкретные физические величины, связанные с химическими процессами в мозге, такие, для которых познаваемый объект и инструмент познания уже не могут быть строго разграничены, что и создаст погрешности в познании. И именно эта особенность материи нашего мозга определяет весь интеллектуальный путь человечества. но эта граница подвижна, поскольку мы можем придумывать хитрые устройства, компенсирующие ограничения восприятия. По идее с физическим ограничением процессов мышления ничего сделать нельзя, но почему-то рост возможности в восприятии увеличивает и качество мыслительных процессов, но не за счёт улучшения качества информации для размышлений, а как-то по-другому. Мне кажется, есть какая-то физиологическая неотделимость процессов восприятия и мышления, и поэтому модель ИИ, в которой эти процессы изначально отделены, не будет успешной.
Мне кажется, что нельзя говорить о том, что наши процессы познания и даже «наша математика» являются плодом физического носителя нашего разума и его ограничений (в том числе, например, завязанных на неопределённость Гезенберга и схлопывание волновой функции Шрёдингера при осуществлении когнитивных процессов). Математика — она одна и едина для любого способа познания. Независимо от устройства физического носителя разума любая разумная цивилизация, будучи достаточно развитой, должна открыть ограничения формальных систем гёделевского типа. Я уверен, что это чистая «платоническая» идея, а не некая ограниченность нашего способа познания объективной реальности. Поэтому не вижу особого смысла вставлять при проектировании в ИИ / ИскИн какие-то ограничения, какие появились в нашем мозге в процессе естественного отбора. Наоборот, у нас есть все возможности сделать новое существо более идеальным, что ли.
Кстати, по поводу этого вопроса рекомендую две книги: 1) Д. Хофштадтер «Гёдель, Эшер, Бах: эта бесконечная гирлянда» и 2) Н. Стивенсон «Анафем». В первой рассматриваются аспекты самореференции и ограничения из-за неё в том числе в процессах познания. Во второй при помощи художественного стиля раскрывается очень много важных и сложных понятий философии науки и когнитивистики.
У меня просто мозг врывается, когда я пытаюсь проследить этот путь, скажем, в физике, от Ньютона до Эйнштейна. Он непротиворечив и имеет непрерывную внутреннюю логику? Или это дискретный набор знаний?
Да, предполагается, что это именно дискретный набор знаний. Хотя, конечно же, тут может быть множество различных гипотез и подходов. Но лично я согласен с выводами Томаса Куна, которые он изложил в своей прекрасной книге «Структура научных революций». Основная идея этой книги в том, что научное знание развивается скачкообразно, посредством «научных революций». Любой критерий имеет смысл только в рамках определённой парадигмы, исторически сложившейся системы воззрений. Научная революция — это смена научным сообществом объясняющих парадигм. Так что Ньютон и Эйнштейн — это просто представители разных парадигм, и сравнивать их друг с другом не стоит.
То есть любая современная наука официально уже содержит в себе этот восхитительный принцип неполной познаваемости? И как это пытаются смоделировать для ИИ? За счет случайности?
Здесь я вижу некоторое смешение понятий с Вашей стороны. Давайте сразу отделим слабый от сильного ИИ. Очевидно, что Вы спрашиваете про сильный ИИ (будем называть его ИскИн для краткости). Потому что для слабых ИИ эти вопросы совершенно неактуальны — у них нет задач познания или всеобъёмлющего понимания науки или хотя бы какого-то отдельного научного направления. А если говорить про ИскИн, то вопросы его построения только-только начинают набирать обороты. И тут исследователи сходятся на том, что сам человеческий мозг, как результат эволюционного процесса, довольно несовершенен, и некоторые вещи в процессе проектирования и создания ИскИна можно (и нужно) поправить. Например, исключить иррациональность из поведения. Поэтому принцип неполной познаваемости, возможно, можно будет исключить. Хотя... Вот я считаю, что математика лежит в области чистых платонических идей и не зависит от механизмов познания, реализовавшихся в конкретном виде разумных существ. Теорема о неполноте достаточно богатой формальной системы будет верна в любом случае, независимо от строения нашего мозга. Это идеальный мир платонических форм. И ИскИну тоже придётся как-то с этим жить, отключить непознаваемость мы в нём не сможем. И он сам путём перепрограммирования в себе не сможет. Потому что добавление в состав формальной системы гёделевского утверждения о ней же в качестве аксиомы переводит систему на новый уровень, но не решает проблему — сколько бы аксиом гёделевского типа мы ни добавили бы, формальная система останется неполной или противоречивой.
И, кстати, рекомендую книгу Нила Стивенсона «Анафем» — в ней в художественной форме описано всё это. Очень красивая и эстетически ценная книга.
Самостоятельная работа
Задание 1

Прочесть все материалы по ссылкам выше

Задание 2

Сдать проверочный тест
Есть вопросы? Отлично, задавайте!
Предыдущие уроки
Урок №1: ИИ и две зимы здесь
Урок №2: ИИ и междисциплинарные исследования здесь