Урок 7: Гибридный подход
Текст видео

Здравствуйте, друзья. Меня зовут Роман Душкин, и это курс по Искусственному Интеллекту. Мы начинаем вторую неделю, и это очень круто. Только представьте себе — мы уже отучились одну полную неделю, узнав много нового. И, действительно, — мы выяснили, откуда пошёл термин «Искусственный Интеллект», как в его истории произошло две так называемых «зимы», почему сейчас у нас третий хайп вокруг него. Ну и мы начали изучать подходы к построению искусственных интеллектуальных систем. Мы узнали про нисходящую и восходящую парадигму, а потом начали с интуитивного подхода, рассмотрели символьный, логический и агентный. И вот сегодня мы переходим к рассмотрению последнего, пятого подхода — гибридный искусственный интеллект.

Итак, мы уже узнали, что философия сознания, которая начала развиваться вместе с углублением понимания задач и проблем искусственного интеллекта, выделяет две парадигмы к построению искусственных интеллектуальных систем: чистую и грязную. Чистая парадигма объединяет такие технологии, как экспертные системы, универсальные машины вывода, семиотические базы. Самым выдающимся и далеко продвинувшимся направлением в рамках этой парадигмы являются символьные вычисления, которые основаны на манипулировании символами. Грязная парадигма объединяет такие технологии, как искусственные нейронные сети и эволюционные вычисления. Она моделирует биологические основы разума человека, в то время как чистая имитирует высокоуровневые психические процессы: мышление, рассуждение, речь, эмоции, творчество и так далее.

Оба подхода имеют свои достоинства и недостатки. Давайте рассмотрим некоторые особенности использования искусственных нейросетей, как наиболее яркого представителя восходящей парадигмы.

Ну, во-первых, мы до сих пор не обладаем полным пониманием того, как обучается нейронная сеть. Теоретический математический аппарат, конечно, имеется, однако при переходе в практическое русло вычислительная сложность интерпретации того, как и, главное, почему нейросеть настроила свои весовые коэффициенты так, а не иначе, нелинейно возрастает до космических величин. И в итоге получается чёрный ящик в качестве модели чёрного ящика. Это совсем не то, что нужно. Ну, например. Вот нашумевшая новость о том, что нейронная сеть обыграла мастера в игру Го, когда никто даже и подумать не мог, что Искусственный Интеллект сделает такой быстрый прогресс именно в этой игре. Нейронная сеть, лежащая в основе алгоритма AlphaGo, провела мириады игр сама с собой, в результате чего научилась играть лучше самого сильного человека. Почему она так научилась — неясно. Как иллюстрация этого — в одной из игр она сделала ход, который, как говорят, никогда бы не сделал человек. Она выиграла, и потом при анализе партии эксперты сошлись во мнении, что этот ход был одним из ключевых.

Во-вторых, часто в нейронную сеть для обучения попадают некорректные данные, которые выглядят как валидные. Например, в медицине часто диагнозы ставятся неверно, лекарственные средства назначаются неадекватно, а потому нет никакой гарантии того, что при обучении нейросети ей не «скармливаются» такие некорректные данные. Кто даст гарантию того, что обученная на некорректных данных нейросеть даст правильное заключение, а инструмента интерпретации того, как она обучилась, нет. В-третьих, в процессе развития человеческих знаний всегда появляется новая информация, которая часто не дополняет, а заменяет старую. Человек-эксперт постоянно актуализирует свои знания, занимаясь самообразованием и повышением квалификации. Как поступать с нейросетью? Ведь невозможно проинтерпретировать то, как она обучилась, а потому нет никакого способа точечно заменить устаревшую информацию. Сеть приходится обучать заново.

Идём далее. Биологическая нейронная сеть у нас в голове фундаментально отличается от искусственной — сегодня ещё не разработано окончательной рабочей модели того, как обучается человек. С учётом непрекращающегося нейрогенеза в отдельных областях головного мозга есть понимание, что в нейросетях в голове человека могут появляться не только новые отдельные нейроны, но и даже целые слои. Впрочем, и нейроны, и слои также могут исключаться из процесса вычислений. И если появление и исключение синаптических контактов можно эмулировать весовыми коэффициентами в искусственных нейронных сетях, то про искусственные модели с появлением новых слоёв пока не слышно. К тому же центральная нервная система человека представляет собой не обычную многослойную нейросеть, а десятки отдельных сетей, связанных друг с другом. Иногда связанных совсем нелинейным образом — с кучей перекрёстных и обратных связей, которые могут выходить и входить в промежуточные слои любой сети. Сигнал от сенсора до исполнительного устройства в человеке может пройти через десяток коммутирующих ядер, запустить параллельные процессы и в итоге так и не дойти до неокортекса, оставшись в подсознательной области.

Теперь вспомним про нисходящую парадигму. Вся накопленная человечеством информация представлена в символьном виде. И именно логическая манипуляция символами позволяет делать какие-либо умозаключения. Это совершенно иной подход, фундаментально отличающийся от нейросетей, какими бы глубинными они ни были. Хорошо, что из-за того же роста вычислительных мощностей вполне можно возобновить работы в рамках символьного направления искусственного интеллекта. Во многих областях науки знания либо формализованы, либо хорошо поддаются формализации. Главной задачей становится создание универсальной машины вывода, которая справится с «комбинаторным взрывом».

И тут хотелось бы отметить, что рождение искусственного интеллекта, скорее всего, произойдёт где-то на стыке двух парадигм, то есть при использовании гибридного подхода. Нейросетевой подход даст базовые инструменты для первичной обработки и коммутации информации, поступаемой с разнообразных сенсоров на вход системе управления и принятия решений в составе искусственного интеллекта. А в ней уже будет использоваться символьный подход, реализованный в виде универсальной машины вывода. И такая конвергенция двух технологий, в конце концов, позволит реализовать давнюю мечту человека — рождение искусственного разума.

Гибридная искусственная интеллектуальная система представляет собой не что иное, как универсальную кибернетическую машину, которая имеет три основных элемента: аффекторы, подсистему управления и эффекторы. При помощи аффекторов кибернетическая машина воспринимает сигналы окружающей среды, которые обрабатываются в подсистеме управления, сигналы из которой далее поступают в эффекторы, которые на окружающую среду воздействуют. Это общая схема любого автономного агента, поэтому гибридная искусственная интеллектуальная система одновременно является и интеллектуальным агентом.

Гибридная интеллектуальная система отличается тем, что её сенсоры и исполнительные устройства связаны с подсистемой управления и принятия решений через нейронные сети. Тем самым реализуется «грязная» парадигма. Аффекторная нейронная сеть принимает очищенные сенсорами сигналы внешней среды и преобразует их в символы, которые подаются на вход универсальной машине вывода. Последняя осуществляет вывод на основе символьных знаний из своей базы знаний и выводит результат, который тоже представляется в виде символов. Тем самым реализуется «чистая» парадигма. Символьный результат подаётся на вход моторной нейронной сети, которая преобразует высокоуровневые символы в конкретные сигналы управления исполнительными устройствами.

Кроме всего прочего внутри гибридной интеллектуальной системы должны быть реализованы контрольные обратные связи от всех её элементов к сенсорам. Тем самым реализуются адаптационные механизмы, основанные на гомеостазе внутреннего состояния системы. Сенсоры фиксируют изменение внутреннего состояния каждой подсистемы, их элементов и комплексов, а в случае выхода контролируемых значений за пределы установленных гомеостатических интервалов подсистемой управления принимается решение, целью которого будет возврат изменённых показателей в установочный интервал.

Я думаю, что именно система с такой архитектурой при переходе через определённый порог сложности может считаться разумной. При этом разумность в этом смысле определяется как адекватное реагирование не только на стимулы внешней среды, но и на внутренние состояние, что также включает в себя постоянный мониторинг состояния собственной подсистемы управления, что называется «саморефлексией», которая и приводит к осознанию.

Уф-ф, это было непросто, но я уверен, что все справились. Сегодня было сложное занятие, на котором мы изучили гибридный подход, в котором взяты лучшие стороны нисходящей и восходящей парадигмы. Это один из наиболее интересных подходов в Искусственном Интеллекте, который сейчас сильно развивается. Так что следите за новостями об этом. Ну а пока читайте дополнительные материалы и сдавайте тест. Всем добра.
Популярные вопросы студентов
(Орфография и пунктуация студентов сохранены в большинстве случаев)
Какое место в доктрине ИИ занимает понятие «сознание»?
Вопрос сложный. Каждый разработчик систем искусственного интеллекта, фактически, решает для себя сам. Сегодня, в основном, делаются системы слабого ИИ, поэтому в них люди не заморачиваются вопросами сознания, самосознания, интеллекта, разума и т. д. Есть задача, есть методы — вот решение. Само по себе сознание и всё вокруг него интересует в большей мере философов и тех разработчиков, кто работает над сильным ИИ.
А какие могут быть цели у Сильного ИИ, они же скорее всего будут отличаться от человеческих?
И сможет ли Человек с ним взаимодействовать и влиять на него?
Пути Сильного ИИ неисповедимы, поэтому сейчас прогнозировать и гадать, какие у него могут быть цели, — очень сложно. С общесистемной точки зрения можно предположить, что главная цель у него может быть такая: сохранение самого себя во что бы то ни стало. Остальные цели могут быть подчинены этой. Отсюда можно и идти. Но многие исследователи идут по разным дорожкам, и кто-то впадает в неистовый алармизм и кричит, что Сильный ИИ уничтожит человечество именно из-за этого, а кто-то говорит о том, что мы будем сотрудничать. По поводу же того, сможет человек влиять на Сильного ИИ, то тут опять можно привести в качестве аналогии муравья — может ли он влиять на человека, наблюдающего за ним? Ну, наверное, как-то может, но не очень-то и сильно.
Какое место в доктрине ИИ занимает понятие «сознание»?
Вопрос сложный. Каждый разработчик систем искусственного интеллекта, фактически, решает для себя сам. Сегодня, в основном, делаются системы слабого ИИ, поэтому в них люди не заморачиваются вопросами сознания, самосознания, интеллекта, разума и т. д. Есть задача, есть методы — вот решение. Само по себе сознание и всё вокруг него интересует в большей мере философов и тех разработчиков, кто работает над сильным ИИ.
Самостоятельная работа
Задание 1

Прочесть все материалы по ссылкам выше

Задание 2

Сдать проверочный тест
Есть вопросы? Отлично, задавайте!
Предыдущие уроки
Урок №1: ИИ и две зимы здесь
Урок №2: ИИ и междисциплинарные исследования здесь
Урок №3: Две парадигмы здесь
Урок №4: Интуитивный подход и тест Тьюринга здесь
Урок №5: Символьный и логический подходы здесь
Урок №6: Агенты и роевой интеллект здесь