Урок 8: Сильный и слабый Искусственный Интеллект
Текст видео

Здравствуйте, уважаемые друзья. Меня зовут Роман Душкин, и мы продолжаем наш курс по Искусственному Интеллекту. Это наше восьмое занятие, и сегодня я хочу рассказать вам о двух различных способах понимания Искусственного Интеллекта. Это поможет вам различать в новостях и алармистских сюжетах досужие вымыслы и футурологические прогнозы. Так что поехали...

Размышления над тем, может ли искусственная система мыслить так же, как человек, что бы это ни значило, приводят к двум различным пониманиям искусственного интеллекта, как практического направления. Ведь споры о том, что такое интеллект и особенно искусственный начались практически сразу же после введение в научную практику нового понятия. Но до сих пор нет ответа ни на этот вопрос, ни на вопрос о том, какие критерии можно использовать для того, чтобы определить, является ли искусственная система интеллектуальной и даже разумной. Ранее мы уже рассматривали тест Тьюринга, который предоставляет хотя бы какие-то операционные критерии попытался. Но в дальнейшем развитии были определены совершенно иные принципы построения интеллектуальных систем. И такие системы вообще не могут быть подвергнуты тесту Тьюринга, хотя по иным критериям должны считаться интеллектуальными.
Джон Сёрль
Философ Джон Сёрль предложил разделить искусственный интеллект на два понимания, которые назвал сильным и слабым искусственными интеллектами. Под сильным он понимал такой искусственный интеллект, который, если говорить самыми простыми словами, воспринимает самого себя в качестве отдельной «личности». Это очень узкое понимание, поскольку привлекает антропоморфное сравнение. Однако искусственное разумное существо не обязательно должно мыслить как человек, поэтому говорить о том, что оно будет оперировать человеческими категориями, в том числе и при осознании себя, очень опасно с методологической точки зрения.

Но в итоге учёные и разработчики интеллектуальных систем постепенно пришли к неформальному соглашению о том, что считать искусственным интеллектом. Под слабым искусственным интеллектом начали понимать интеллектуальные системы, которые решают слабо алгоритмизируемые или вовсе неалгоритмизируемые задачи методами, схожими с теми, которые использует для решения таких задач человек. Другими словами, слабый искусственный интеллект представляет собой реализацию отдельных функций человеческого разума для достижения конкретных целей. При этом о наличии у таких систем самосознания, не говоря уже о иных высших функциях психической деятельности человека, даже не говорится — их нет и не предполагается.

С другой стороны, сильный искусственный интеллект подразумевает появление у искусственной интеллектуальной системы самосознания с дальнейшим выходом в автономный режим жизнедеятельности и получением возможности перепрограммировать саму себя с целью усовершенствования. Именно с этим пониманием искусственного интеллекта связывается точка достижения технологической сингулярности — сильный искусственный интеллект будет экспоненциально развиваться, поглощая всю накопленную человечеством информацию и используя её для собственного роста. Более того, он сможет генерировать новые идеи и концепции, как это делает человек, что в конце концов приведёт к тому, что сильный искусственный интеллект превзойдёт в интеллектуальных способностях всё человечество вместе взятое.

Для того чтобы считаться сильной, искусственная интеллектуальная система должна, в первую очередь, обладать механизмом волевого целеполагания. Это значит, что она должна уметь произвольно ставить цели и планировать их достижение. Для этого она должна объединять в себе такие механизмы, как принятие решений, разработка и использование стратегий, планирование своих действий и дальнейшие действия в условиях неопределенности. В свою очередь это влечёт за собой необходимость наличия полной и постоянно обновляемой модели того внешнего мира, в котором существует искусственная система, и это не обязательно должна быть наша объективная реальность. Такая система может обретаться в искусственной реальности, которая создана специально для её жизни в неё. Ну, собственно, я веду речь о разного рода виртуальных мирах, в которых живут сильные искусственные интеллекты. Соответственно, для связи с нашей реальностью должны иметься какие-то специальные интерфейсы. Однако всё это пока слишком сложно, и мы оставим изучение деталей этих технологий на более позднее время.

В последнее время возникла новая парадигма в науке о сознании, которая пока ещё остаётся больше фантастической, нежели реальной. Речь идёт о так называемой гибридизации сознания, когда человеческий естественный интеллект сливается и при этом усиливается методами и технологиями искусственного интеллекта. Фактически, цель этого направления исследований состоит в отыскании путей и возможностей для осуществления цифрового бессмертия человеческой личности, то есть её записи из бренного биологического тела на цифровые носители. Это очень занятное направление исследований, которое находится в самом начале своего пути. Но тут есть многое, о чём можно подумать.

На этом всё. Я уверен, что сегодняшнее занятие упорядочит ваши знания об искусственном интеллекте, поскольку мы разобрались и дифференцировали друг от друга два его понимания — сильный и слабый искусственный интеллект. Ну а про гибридизацию сознания, о чём мы кратко заикнулись, мы узнаем как-нибудь в следующий раз. Теперь прошу изучать дополнительные материалы, и сегодня их немного. И обязательно выполняйте тесты.

Популярные вопросы студентов
(Орфография и пунктуация студентов сохранены в большинстве случаев)
Вопрос созрел по вчерашней теме. Какие есть теории касательно эмоций у ИИ? Могут ли они у него появиться и зачем-то ему быть нужны?
Благодарю за отличный вопрос! Чтобы ответить на него, нужно обратиться к самому механизму эмоций у человека. Как предполагается, они, эмоции, возникли как механизм регуляции ещё у тех организмов, у которых нет нервной системы и, соответственно, целенаправленной передачи сигналов. Протоэмоциями можно назвать хемотаксис у бактерий (то есть движение по градиентам концентраций определённых веществ, которое нами, людьми, погрязшими в антропоморфном видении мира, воспринимается как намеренное приближение к пище или убегание от врага). То же самое можно сказать про растения, низших животных и всех остальных вплоть до человека. То есть эмоция — это общесистемный химический ответ организма на некоторый стимул извне или изнутри. Благодаря эмоциям организм может более или менее быстро реагировать на разные стимулы. Если рассмотреть человека, то у него эмоциональные процессы накладываются на возможность их осознания, и отсюда возникает весь спектр сложных эмоциональных комплексов, включающих вторичные эмоции и эмоции высших порядков. Ну, например, человек в ответ на какое-то событие резко разозлился, потом осознал это и почувствовал стыд. В итоге у него в крови повысились концентрации нескольких гормонов, которые сознанием воспринимаются как соответствующие эмоции. Другими словами, последовательность эволюции такая: хемотаксис => эмоции => нервная система => сознание. Ну и теперь понятно про ИИ. Если он будет изначально рациональным и сознательным, то никакие эмоции ему будут не нужны. Холодный разум, всегда принимающий рациональное взвешенное решение. Само собой разумеется, что сейчас речь идёт о Сильном ИИ. Слабому эмоции ни к чему в принципе. Но если его разработчики так его запрограммируют, то он будет симулировать эмоциональный ответ, например, для более эмпатичного общения с людьми. Кстати, это же может делать и Сильный ИИ, но уже по собственной воле и только для того, чтобы спуститься на наш примитивный уровень.
1. что такое весовые коэффициенты нейросети?
Каждой связи между нейронами нейросети приписан некоторый весовой коэффициент, на который умножается значение, передаваемое по этой связи. Обучение нейросети как раз и заключается в подстройке значений этих весовых коэффициентов.
2. то есть информация, которая пройдёт через эту связь станет более значительной?
Или наоборот обнулится. Коэффициент же может получить значение 0.
Пока реализованы только системы слабого ии. Так?
Сегодня у нас есть только системы слабого ИИ, естественно. Всё то, что сегодня называется словами «Искусственный Интеллект» — это только слабы ИИ и ничего больше. К реализации сильного ИИ никто ещё даже и не подступился, хотя, конечно, такие попытки декларируются. Тем не менее, нельзя отвергать гипотезу о том, что ИскИн (сильный ИИ) могу самозародиться где-то в недрах Интернета, и сейчас он просто от нас скрывается. Либо не скрывается, а общается с нами на многочисленных форумах, просто мы не можем выявить то, что с нами общается ИскИн. Представьте на минутку, что кто-то в сети может влиять на общественное мнение на мировом уровне, манипулируя им в своих интересах, причём скрываясь под массой личин и масок, общаясь на любом языке и имея возможность пародировать любой стиль общения...
И ещё, если ии рационален, откуда берётся сопереживание? Это или часть программы и эмуляция чувства или как? Вопрос, скорее философский, что человек хочет получить от ии. Имхо
Да, ИИ рационален. Что же касается сопереживания, то опять рассматриваем два типа. Во-первых, в слабом ИИ сопереживание, эмпатия, любые эмоции могут быть запрограммированы для того, чтобы более тонко настраиваться на пользователя. Например, это может быть ИИ в секс-кукле, который будет генерировать эмоциональный ответ в том виде, в каком он ожидается человеком, взаимодействующим с этой куклой. Или робот-ведущий на телевидении, который читает новости. Мимика его лица, нотки в его голосе должны в той или иной мере выражать отношение к декламируемым новостям. Это вполне можно так или иначе запрограммировать. Во-вторых, сильный ИскИн может показывать любой вид человеческих чувств и эмоций для достижения своих целей, которые поставлены рационально и рационально же достигаются. Этим он пугает алармистов — абсолютно рациональное разумное существо, которое может имитировать иррациональное поведение для достижения своих собственных целей. Сомневаюсь, что это можно как-то предотвратить, но произойдёт ли именно так, как я говорю, — прогнозировать сложно.
Эмоции не являются функцией ИИ? Но в перспективе можно его научить эмоциям?
Эмоции — это древний адаптационный механизм, который в виде протоэмоций существует даже у бактерий и растений (под наименованием «хемотаксис», то есть «движение по градиенту концентраций химических веществ»). Этот механизм вырабатывался для того, чтобы у организма была возможность хоть как-то реагировать на изменения окружающей среды. Затем с появлением нервной системы реакции организма стали более целенаправленными и точечными, но механизм эмоций остался, и это как бы рудимент. Поэтому считается, что для ИИ эмоции не нужны, поскольку он действует на основе полной рациональности.
С другой стороны, ИИ вполне может научиться распознавать эмоции, и сегодня ведутся многочисленные исследования на эту тему. Мне известны, как минимум, два направления — во-первых, распознавание по внешнему виду лица человека, а во-вторых, распознавание по тому, как человек пишет, какие тексты, комментарии в социальных сетях. Достижения есть, и в будущем, возможно, ИИ будет очень тонко распознавать эмоциональный настрой человека, с которым он общается, и подстраиваться под него (в целях персонификации или даже манипуляции).
Самостоятельная работа
Задание 1

Прочесть все материалы по ссылкам выше

Задание 2

Сдать проверочный тест
Есть вопросы? Отлично, задавайте!
Предыдущие уроки
Урок №1: ИИ и две зимы здесь
Урок №2: ИИ и междисциплинарные исследования здесь
Урок №3: Две парадигмы здесь
Урок №4: Интуитивный подход и тест Тьюринга здесь
Урок №5: Символьный и логический подходы здесь
Урок №6: Агенты и роевой интеллект здесь
Урок №7: Гибридный подход здесь