Роман душкин
Искусственный Интеллект
Базовый онлайн-курс. Итоги курса.
Уроки 1 — 6 недели
Урок № 1: ИИ и две зимы здесь
Урок № 2: ИИ и междисциплинарные исследования здесь
Урок № 3: Две парадигмы здесь
Урок № 4: Интуитивный подход и тест Тьюринга здесь
Урок № 5: Символьный и логический подходы здесь
Урок № 6: Агенты и роевой интеллект здесь
Урок № 7: Гибридный подход здесь
Урок № 8: Гибридный подход здесь
Урок № 9: Некоторые мифы об ИИ — 1 здесь
Урок №10: Некоторые мифы об ИИ - 2 здесь
Урок №11: Некоторые мифы об ИИ — 3 здесь
Урок №12: Правда об ИИ - 1 здесь
Урок №13: Правда об ИИ - 2 здесь
Урок №14: Правда об ИИ - 3 здесь
Урок №15: Несколько успешных примеров ИИ-проектов — 1 здесь
Урок №16: Несколько успешных примеров ИИ-проектов — 2 здесь
Урок №17: Несколько успешных примеров ИИ-проектов — 3 здесь
Урок №18: Философия ИИ здесь
Урок №19: Прикладное 1: ЭС и СППР здесь
Урок №20: Распознавание образов здесь
Урок №21: Чат-боты здесь
Урок №22: Творчество здесь
Урок №23: Автономные автомобили здесь
Урок №24: Роботы и аватары здесь
Урок №25: ИИ и Государственное управление здесь
Урок №26: ИИ и Безопасность здесь
Урок №27: ИИ и Транспорт здесь
Урок №28: ИИ и Промышленность здесь
Урок №29: ИИ и Обазование здесь
Урок №30: ИИ и Наука здесь
Урок №31: ИИ и Здравоохранение здесь
Урок №32: ИИ Культура здесь
Урок №32: ИИ Культура здесь
Урок №33: ИИ и Развитие новых отраслей здесь
Урок №34: Квантовые технологии здесь
Урок №35: Нанотехнологии здесь
Урок №36: Что дальше? здесь
Урок №37: Итоги здесь
Эссе-победитель
(орфография и пунктуация курсанта сохранены)
Как ИИ изменит нашу жизнь?


Человеческий мозг обладает возможностью доходить до решения благодаря "интуиции". Это его самый большой плюс. Но многие вещи ему не доступны. В основном это вещи, связанные с обработкой большого количества информации, со скоростью обработки этой информации, с вниманием к деталям. Увы, человеческий мозг пропускает, забывает вещи и часто приходит к ошибочному результату.
Если мы говорим о слабом ИИ, то такие системы будут все шире и шире входить в нашу жизнь. Все те действия, которые связаны с монотонной рутинной работой, которая при этом не плохо формализуема - она будет заменена ИИ. Уже даже в компании, в которой я работаю, мы заменяем десятки людей системами, основанными на машинном обучении.
Но это технический аспект. Он в каком-то смысле прост. Есть и другой аспект. С помощью таких ИИ систем у их "владельцев" окажется власть, о которой мы не могли и подумать раньше. Не только государство может использовать такую власть, но и частные компании. И мы пока даже не понимаем что хуже. Большие компании типа Google, Amazon и Facebook активно создают такие системы. Системы, которые накапливают такое количество информации о вас, что вам такое даже не снилось. Компании типа той, что создала FindFace в связке с государством и огромным количеством камер на улицах, позволяют невиданную ранее мощ находить человека где бы он ни находился.
Мы пока не до конца понимаем к каким последствиям такие вещи приведут. Последствия могут быть как прекрасными, так и печальными. И даже смесью. Мы все будем жить прекрасной жизнью, но без свободы.
Регулирование таких вещей становится насущной необходимостью, которую пока не все осознают. Приход ИИ в наш мир похож на постепенное увеличение температуры воды, в которой лежит лягушка. Она не понимает что ее варят до тех пор, когда уже поздно...
Ну а про сильный ИИ даже говорить не стоит. Его появление может изменить все в один момент.

Марко Кевац
Интересные вопросы курсантов
(орфография и пунктуация курсантов сохранены)
У меня вопрос по курсу, про гибридизацию человека и новых технологий. Если я правильно понимаю, эта тема должна опираться на новые технологии и исследования протезирования?
Да, именно на исследования по протезированию и опирается тема гибридизации. Но надо понимать, что протизирование и гибридизация — они двухаспектны. С одной стороны, это именно протезы конечностей и даже внутренних органов. С другой — дополнения в мозг и нервную систему для расширения их возможностей. Эти области очень тесно переплетены, и в их основе лежит нейроинтерфейс. То есть схема примерно такая: протезирование => нейроинтерфейс => киборгизация => гибридизация сознания.
А какие именно интересные технологии и результаты в области нейроинтерфейса, полезные для разработки ИИ были уже получены? И что считается перспективным в этой области?
Собственно, тут, как и во многих вещах, выделяют два магистральных направления, которые можно назвать «инвазивный» и «неинвазивный» нейроинтерфейс. В обоих направлениях много поднаправлений и отдельных технологий, которые сегодня очень много испытываются в разных лабораториях.
1) Инвазивные технологии — некоторое устройство встраивается напрямую в нервную систему и получает сигналы от мозга через биолого-технический интерфейс той или иной природы. Или через такие же интерфейсы оказывает влияние на нервную систему и мозг. Яркие примеры такой технологии — кохлеарный имплант и стимулятор блуждающего нерва.
2) Неинвазивные технологии — «мыслительные процессы» как-то считываются через различные параметры, которые можно измерять без внедрения в тело, а передача сигналов в нервную систему и мозг осуществляется по имеющимся каналам (чаще всего, это иммерсивные технологии, виртуальная и дополненная реальность, либо перевод сигналов недостижимых значений в сигналы той же природы, но из воспринимаемого человеком интервала). Яркий пример — ЭЭГ-монитор, при помощи которого осуществляется управления дронами, экзоскелетом и другими исполнительными устройствами. При этом между ЭЭГ-монитором и исполнительными устройствами стоит ИНС, которая проходит стадию обучения (индивидуальный подбор параметров для каждого конкретного оператора), а потом работает в боевом режиме по обученным весам.

Какое место в доктрине ИИ занимает понятие «сознание»?
Каждый разработчик систем искусственного интеллекта, фактически, решает для себя сам. Сегодня, в основном, делаются системы слабого ИИ, поэтому в них люди не заморачиваются вопросами сознания, самосознания, интеллекта, разума и т. д. Есть задача, есть методы — вот решение. Само по себе сознание и всё вокруг него интересует в большей мере философов и тех разработчиков, кто работает над сильным ИИ.
Вопрос - какие экспертные системы используются сейчас? Переводчики Abby & google это ai?
Сегодня используются тысячи разных экспертных систем. В основном в рамках систем поддержки принятия решений (СППР) в различных ведомствах. В качестве примера могу привести СППР, которую разрабатывал сам для МЧС России. В её составе есть экспертная система (ЭС), которая предназначена для распознавания неизвестных веществ вне лаборатории. Даже более, сегодня всё ещё используются ЭС, разработанные в 1980-х годах XX века. Ну та же DENDRAL, самая первая в истории ЭС, она до сих пор используется.
Что касается переводчиков. Да, это технологии ИИ. Просто есть такая парадоксальная штука — когда технологии плотно входят в жизнь и становятся обыденными, люди не склонны видеть в них что-то необычное или очень научное. Автоматические переводчики стали обыденностью, но то, что лежит у них под капотом, — это, вне всяких сомнений, технологии Искусственного Интеллекта.

1. Здравствуйте, можете более менее простыми словами объяснить метод имитации отжига?
В общем, так. Представьте метод градиентного спуска, который в классическом варианте часто залипает в локальных экстремумах, но теперь следующая точка выбирается случайно в некоторой окрестности текущей точки, а переход в неё осуществляется в соответствии с некоторой условной вероятностью.
2. А для чего в принципе используется метод имитации отжига? для поиска экстремумов тоже?
Да, это метод оптимизации. Но он тоже, конечно, не гарантирует попадания в глобальный.
1. добрый день, что такое весовые коэффициенты нейросети?
Каждой связи между нейронами нейросети приписан некоторый весовой коэффициент, на который умножается значение, передаваемое по этой связи. Обучение нейросети как раз и заключается в подстройке значений этих весовых коэффициентов.
2. то есть информация, которая пройдёт через эту связь станет более значительной?
Или наоборот обнулится. Коэффициент же может получить значение 0.
Я не совсем понимаю что именно даёт увеличение скрытых слоёв инс?
И отличаются ли как-то нейроны, находящие на входе от нейронов в скрытых слоях , например?
Само по себе увеличение количества слоёв в ИНС не даёт ничего. Более того, для некоторых типов ИНС существует такой феномен, как «затухание», когда пр обучении при помощи метода обратного распространения ошибки весовые коэффициенты на межнейронных связях у самых первых слоёв практически не изменяются, так как ошибка не доходит до этих слоёв. Так что всё дело в архитектуре нейронной сети в первую очередь и в типе используемых нейронов во вторую. Задача диктует выбор архитектуры, которая частично определяет тип нейронов, а дальше уже сам исследователь различными методами пытается определить, сколько скрытых слоёв нейросеть должна содержать. То есть нельзя сказать, что вот мы сейчас возьмём и добавим пару сотен слоёв, и тогда о-го-го! Нет, для каждой задачи и каждой архитектуры, фактически, это индивидуальный подбор, и задача эта больше творческая.

Что касается типов нейронов, то тут опять архитектура ИНС диктует, какие нейроны на каких слоях должны быть. Разных типов нейронов придумано довольно много. И они используются в разных типах ИНС. Например, в перцептроне три типа нейронов — по одному на каждый тип слоя. В свёрточной сети на входных слоях могут стоять обычные фильтрующие нейроны, а на скрытых слоях — с памятью. В других архитектурах могут использоваться нейроны с реципрокными и обратными связями. Опять же диктует задача.
Какие есть теории касательно эмоций у ИИ? Могут ли они у него появиться и зачем-то ему быть нужны?
Благодарю за отличный вопрос! Чтобы ответить на него, нужно обратиться к самому механизму эмоций у человека. Как предполагается, они, эмоции, возникли как механизм регуляции ещё у тех организмов, у которых нет нервной системы и, соответственно, целенаправленной передачи сигналов. Протоэмоциями можно назвать хемотаксис у бактерий (то есть движение по градиентам концентраций определённых веществ, которое нами, людьми, погрязшими в антропоморфном видении мира, воспринимается как намеренное приближение к пище или убегание от врага). То же самое можно сказать про растения, низших животных и всех остальных вплоть до человека. То есть эмоция — это общесистемный химический ответ организма на некоторый стимул извне или изнутри. Благодаря эмоциям организм может более или менее быстро реагировать на разные стимулы. Если рассмотреть человека, то у него эмоциональные процессы накладываются на возможность их осознания, и отсюда возникает весь спектр сложных эмоциональных комплексов, включающих вторичные эмоции и эмоции высших порядков. Ну, например, человек в ответ на какое-то событие резко разозлился, потом осознал это и почувствовал стыд. В итоге у него в крови повысились концентрации нескольких гормонов, которые сознанием воспринимаются как соответствующие эмоции. Другими словами, последовательность эволюции такая: хемотаксис => эмоции => нервная система => сознание. Ну и теперь понятно про ИИ. Если он будет изначально рациональным и сознательным, то никакие эмоции ему будут не нужны. Холодный разум, всегда принимающий рациональное взвешенное решение. Само собой разумеется, что сейчас речь идёт о Сильном ИИ. Слабому эмоции ни к чему в принципе. Но если его разработчики так его запрограммируют, то он будет симулировать эмоциональный ответ, например, для более эмпатичного общения с людьми. Кстати, это же может делать и Сильный ИИ, но уже по собственной воле и только для того, чтобы спуститься на наш примитивный уровень.
1. я начала смотреть сегодняшнее видео и тут поняла, что видимо не до конца осознала интуитивный подход из вчерашнего, а именно: я увидела по каким критериям проходит тест Тьюринга и что как такового описания к подходу ИИ не оставил :). но суть самого подхода "интуитивного" не очень осознала, это больше похоже на подход к валидации системы на то, относится ли она к ИИ или нет
Дам комментарий пока здесь небольшая заминка. Вы абсолютно точно уловили суть. Интуитивный подход сегодня — это, скорее, про валидацию. Как я говорил на лекции, мы каким-то интуитивным образом можем понимать, разумное ли существо перед нами или нет. Тем не менее, в чём тут дело? Когда учёные только начали работу над ИИ-системами, ещё практически не было никаких теоретических основ для работы. А потому разработчики как бы на собственной интуиции делали первые искусственные интеллектуальные системы. Только потом начались теоретические проработки. Сегодня теория на высоте, а потому интуитивный подход сегодня не используется в принципе.
2. я поняла, но по сути когда даже первые разработчики это делали, они все равно фактичекую систему проверяли интуитивно, подходит или нет, но когда они ее разрабатывали все равно подход к созданию был какой-то другой ). или имеется в виду что они интуитивно определяли направлняи развития системы, без какого-то системного подхода. системного в смысле общего определения "система" , а не конкретно информационной , а то тавтология получилась. системного в смысле общего определения "система" , а не конкретно информационной , а то тавтология получилась :)
Скорее, второе. Это как взять человека, который только-только начинает программировать. Он начинает писать какие-то учебные программы, экспериментирует, алгоритмов особо не знает. Ну вот, к примеру, уверен, что многие алгоритмы сортировки были многократно переизобретены теми, кто не читал монументальный труд Д. Кнута. Ну и тут то же самое — пионеры ИИ «тыкались» в разные стороны, что-то находили, что-то было ошибочным. Потом уже, когда начались подтягиваться научные коллективы, разработка стала принимать более системный характер.
Как это получать новые знания механически? что это за теория? Я понимаю, что в процессе медитации и остановки деятельности ума, который на самом деле нам враг, можно подключиться к источнику абсолюта и черпать оттуда знания. Но а это что за механический процесс?
Например, это может быть формальный вывод и доказательство новых теорем в рамках какой-либо формальной системы. Новая теорема —это новое знание, которое добыто «механически». Или, другое пример, искусственную систему можно запрограммировать для получения результатов неких экспериментов, которые она постоянно ставит. Эта система будет получать данные, фильтровать их и даже как-то интерпретировать, и в этом случае через процесс интерпретации из данных будут получится знания. А дальше знания уже применяются разумным существом или же системой, основанной на знаниях (экспертной системой).
Интересно зачем нужна была разностная машина, какие вычисления она реально производила , какую функцию она выполняла?
Разностная машина проектировалась как универсальный аппроксиматор функций многочленами и вычисления конечных разностей [в нотации LaTeX: \Delta (x_k) = f(x_{k + 1}) - f(x_k) ]. Фактически, она могла бы позволить вычислять приближённые значения логарифмов и тригонометрических функций, что имело бы прямое прикладное значение в мореплавании, инженерном деле и везде, где требовались расчёты инженерного характера.
Не очень понятно, почему парадокс Рассела помешал созданию стройной математической системы по получению знаний? Также очень интересно, возможна ли вообще подобная система, если учитывать, что для нового "знания" нужна идея, а не просто математический анализ данных?
Рассел и другие последователи Гильберта пытались сделать некую систему, которая позволила бы «механически» получать новые математические знания и, в итоге, просто, перебрав и все, построить окончательное и фундаментальное здание науки. Но Рассел первый же вбил гвоздь в крышку гроба наивной теории множеств Канторы со своим парадоксом, а за ним уже и Гёдель доказал, что окончательной и полной системы научного знания мы получить не сможем никогда. Из этого следует интересный вывод — те, кто «общается» с миром чистых платонических идей, всегда будут находить что-то новое и постоянно достраивать здание науки.

Что касается теоремы Гёделя о неполноте. то она гласит, что любая достаточно выразительная формальная система, в которой есть возможность выразить базовую арифметику (числа и операцию сложения) либо противоречива, либо неполна. Противоречивость обозначает то, что в системе можно доказать некую теорему и её отрицание. Неполнота обозначает невозможность в системе доказать некую теорему, которая истинна и действительно является теоремой. В общем, следствие этой теоремы в том, что наша обычная арифметика является неполной системой, и наполнить её невозможно (это тоже доказано Гёделем).

В общем, всё это значит, что мы не сможем построить окончательное здание знания, фундаментальное и завершенное. Знания будут добываться всегда. И всегда будет появляться возможность добавить новые знания. Что бы нового мы не открыли.
Вы слегка искусственно провоцируете дискуссию или действительно Восточная цивилизация не внесла ничего в развитие математики, возможно приведшее к прорыву западной математической мысли 20 в?
Несомненно, что восточная научная мысль дала какие-то отдельные всплески (типа всем известных нуля и арабских цифр для десятичной записи). Но если рассматривать в целом весь массив философии и науки, то вне всякого сомнения колыбелью научного мировоззрения является античный мир и западная цивилизация, как наследующая ему. Восточные культуры более созерцательны, западные — рациональны.
И как возможно создать язык программирования, не имея машины? Хотя, возможно, мы приходим к проблеме курицы - яйца. С другой стороны, есть гравиационные волны Эйнштейна, обнаруженные через 100 лет после их описания.
Тьюринг сделал это. Он построил умозрительную модель (машину Тьюринга), после чего, фактически, описал в математических терминах универсальный язык программирования. Отсюда появился термин — «Тьюринг-полный язык программирования», который обозначает, что на этом языке можно реализовать любую функцию, которую можно вычислить (не все функции можно вычислить). То же самое сделал Алонзо Чёрч — не имея компьютера, он описал математическую нотацию (лямбда-исчисление), которое как раз представляет собой базовый Тьюринг-полный язык программирования. Все современные языки программирования высоких уровней представляют собой всего лишь «синтаксический сахар», обёртывающий математические записи лямбда-исчисления.
У меня вопрос по курсу, про гибридизацию человека и новых технологий. Если я правильно понимаю, эта тема должна опираться на новые технологии и исследования протезирования?
Да, именно на исследования по протезированию и опирается тема гибридизации. Но надо понимать, что протизирование и гибридизация — они двухаспектны. С одной стороны, это именно протезы конечностей и даже внутренних органов. С другой — дополнения в мозг и нервную систему для расширения их возможностей. Эти области очень тесно переплетены, и в их основе лежит нейроинтерфейс. То есть схема примерно такая: протезирование => нейроинтерфейс => киборгизация => гибридизация сознания.
Одни говорят, что мысли считывать невозможно ввиду слишком большого количества вариантов, которыми человек может представить или подумать одно и то же. А люди, которые планируют полностью описать работу мозга, видимо, рассчитывают все же извлечь много полезной информации и надеются, вероятно, все же обнаружить какие-то паттерны?
Да, правы и те, и другие. По съёму ЭЭГ и даже фМРТ невозможно прочитать мысли. Во-первых, потому что оба этих метода дают очень усреднённую картину функционального состояния коры головного мозга (в случае ЭЭГ) или всего мозгового вещества (в случае фМРТ). Во-вторых, просто потому что у каждого человека связи между нейронами в голове формируются сугубо индивидуально. Ведь распространение факторов роста нервов в процессе как эмбриогенеза, так и в процессе взросления нервной системы и её обучения, происходит стохастически, а потому нейроны соединяются друг с другом практически случайным образом, и сети на нейрональном уровне не совпадают у двух разных людей. Конечно, структура сетей одинакова, но память, как полагается, располагается в синапсах, а именно синапсы создаются стохастически. Поэтому да — на текущем уровне развития технологий мысли прочитать не удасться. Но вот общие паттерны и зависимости выявить точно получится.
У меня сразу возникает вопрос возрастных ограничений для применения нейроинтерфейсов. Они же используют некие уже существующие «наработки» мозга? Или если например новорождённому имплантировать нечто, оно просто органично впишется в его образ тела и обрастёт нервными связями, как и всё остальное? Получается, это только для инвазивных ИМК. Неинвазивные же должны адаптироваться к конкретному человеку, а значит, опираться на уже существующие связи? А с какого момента это возможно?
Здесь, мне кажется, для неинвазивных методов работы нейроинтерфейса ограничений нет. Если сделать распознающую систему, которая будет время от времени (или же постоянно) адаптироваться к изменениям сигналов, то никаких проблем с пластичностью мозга возникнуть не должно. Такая система должна повторять гибкость сенсорных систем самого человека — постоянная адаптация к изменениям окружающей среды. Только для этой системы «окружающей средой» будет пространство сигналов, снимаемых с нейроинтерфейса, и перевод их в моторные или какие-либо иные команды. Я лично никаких фундаментальных препятствий в создании систем подобного рода не вижу. Вероятно, есть какие-то технологические или физиологические ограничения.
Очень интересно, как будет изменяться работа мозга при постоянном использовании нейроинтерфейсов. Неизбежно будут прокачиваться способности к проявлению узкоспециальных волевых усилий, а они всё равно очень тесно связаны с моторной областью. Как они должны взаимодействовать при неминуемом уменьшении обычной двигательной активности и прокачке деятельности по управлению интерфейсом.
Да, это очень интересный вопрос. Но, думаю, что человек, как высокоадаптивная система, начнём успешноэволюционировать. И если нейроинтерфейсы станут внутренними, встроенными, то они органично вольются в модель тела и, соответственно, попадут в сенсорный и моторный «гомункулусы». Внешние нейроинтерфейсы медленнее, но тоже сделают то же самое — в моторной части неокортекса будет выделена область, которая будет отвечать за эти самые узкоспециализированные волевые усилия. Вероятно даже, что не в ущерб всем остальным. Впрочем, я сомневаюсь, что это в обозримое время закрепится на генетическом уровне, если только не поработать с генетикой — при рождении ребёнку придётся учиться работать с нейроинтерфейсами так же, как ему приходится учиться кататься на велосипеде или ездить на машине (про «модель машины» в голове у водителей в курсе же?).
В реальности электрическое поле, создаваемое на поверхности кожи даже небольшим напряжением подкожных мышц, превосходит электричество, вырабатываемое мозгом. Поэтому обычно напряжение лицевых мышц, сопровождающее «попытки напрячь мысль», фактически и управляет всеми игровыми НКИ — это как вообще? Мне кажется, такого быть не может. Напряжение мышц лица — это как высунутый язык первоклашки, со временем проходит. Если бы это было так, игровые НКИ нужно было бы переобучать. Не так?
Думаю, что речь идёт о так называемых «двигательных артефактах», которые мешают снимать ЭЭГ. Мышцы лица находятся намного ближе к поверхности кожи, поэтому их потенциалы (а миоциты — это клетки, которые генерируют электричество, как и нейроны) перебивают потенциалы, снимаемые с коры головного мозга при регистрации ЭЭГ. Поэтому всегда при съёме ЭЭГ надо лежать спокойно, не двигаться и т. д. Впрочем, давно есть программное обеспечение, которое учитывает эти влияния мышечных потенциалов в расчёте показателей ЭЭГ. Думаю, что речь об этом аспекте, хотя учитывая то, что врачам всё давно об этом известно, мне не понятно, почему это такая большая проблема для разработчиков нейроинтерфейсов. Тем более, что если «нулевой» электрод подключить к мочке уха, а не к пальцу, то амплитуды будут меньше, но точнее.
...Есть ли что-то более продвинутое для распознавания ИИ, обладающего самосознанием? Или что бы мы ни делали, вопрос этот переходит в разряд философии и является нерешаемым? Да, тест Тюринга плох и не особо работает. Есть ли что-то лучше? Или задача вообще не выполнима и относится к философии: "что же такое разумное существоооо?"?
Да. Потому что против любой процедуры, какую бы кто-либо не предложил, можно привести примеры её провала в двух аспектах. Во-первых, можно привести пример, когда она скажет «разумно» на неразумное. Во-вторых, пример ответа «неразумно» на разумное. Мне кажется, что это следствие так называемой «Сложной проблемы сознания».
А не могли бы Вы чуть подробнее объяснить про эту тоную грань между недообученной и переобученной сетью?
Недообученная нейронная сеть для довольно большого числа образцов, подаваемых на вход, не знает, что с ними делать. Переобученная нейронная сеть даёт правильные результаты только для тех образцов, которые были в обучающей выборке, а для остальных не знает, что делать. Тонкая грань в причинах, почему недообученная и переобученная нейросети так себя ведут. Первая потому, что у неё не хватает информации. А вторая потому, что у неё слишком «сильными» стали коэффициенты на связях между нейронами, и они не пропускают образцы, хотя бы чуть-чуть отличающиеся от тех, которые были в обучающей выборке.
Насколько я понял в роевых алгоритмах роль матки отсутствует, хотя в природе матка играет основополагающую роль в том же улье. Если погибает матка, то и погибает улей. Таким образом, если дальше развивать идею суперорганизма, то необходимо вводить роль матки, тогда интеллект системы очень сильно возрастет.
Смотри, пара примеров. Рассмотрим автономные автомобили:
1) Центральная система управления (ЦСУ), которая за каждый автомобиль решает, по какому маршруту ему ехать, чтобы довезти пассажира или груз. Это централизованная система с иерархией.
2) Есть зональные центры, которые могут координировать свои действия на своём уровне, не эскалируя на ЦСУ. И они могут воздействовать на автономные автомобили. При этом последние обладают определённой степенью свободы принятия решений.
3) Автономные автомобили полностью самостоятельно принимают решения и ездят, общаясь друг с другом и элементами инфраструктуры — это децентрализованная схема. Она может быть очень адаптивной, но схемы с ЦСУ обычно более эффективны.

Что можно изучить, почитать по теме высокого ИИ и экспертных систем? Книги, лекции, курсы? Хочется не общее, а с практическими применениями. Чтобы по прочтении или прослушивания можно было начать разрабатывать их?
Что можно изучить, почитать по теме высокого ИИ и экспертных систем? Книги, лекции, курсы? Хочется не общее, а с практическими применениями. Чтобы по прочтении или прослушивания можно было начать разрабатывать их?
Открыл статью в википедии про "вторую сигнальную систему". Очень сложный язык статьи и отсутствие этой станички на других языках (там только 3 языка бывшего СССР) предостерегает меня что это понятие не очень признано в мире. Что-то из псевдонауки. Это так? Или просто ссылки в википедии не очень хорошо проставлены?
Рита думает что это вообще нельзя категоризировать в науку\псевдонауку, т.к. это просто понятие, введенное для описания каких-то процессов. А иностранцы не знают просто потому что, кроме работ по бехавиоризму, с Павловым особо не знакомы.
Понятия ПСС и ВСС введены Павловым, но потом академической наукой в СССР отодвинуты. Их не использовали здесь, а там их и не знали. Но мне кажется, что эти термины термины хорошо отражают суть процессов.
1) ПСС — мы получаем ощущения через сенсоры и реагируем на них здесь и сейчас или складываем в память, но там они лежат тоже в виде ощущений разных модальностей или даже смешано.
2) ВСС — мы получаем ощущения и обрабатываем их при помощи символов. Абстрактные символы сами по себе становятся предметом внутренних переживаний и осмысленной уже без привязки к непосредственным ощущениям органов чувств.
Пример. Собака видит дм своего хозяина. Её ощущения на сетчатке глаза передаются в головной мозг, где рождают ассоциации типа «безопасно», «тепло», «радость» и т. п. первичные эмоции. Человек видит свой дом. У него не только первичные эмоции, как у собаки, появляются, но и куча опосредованной абстракции символом «дом».
В противоположность этому. Собака видит какой-то чужой дом далеко от своего (например, в другой деревне), не похожий по внешнему виду на дом хозяина совершенно. Ну некая форма на сетчатке не вызывает у неё абсолютно никакого интереса. Человек видит тот же дом и, например, если он давно не был у себя дома, у него в голове рождается такое ощущение, как ностальгия и грусть. Это вторичные эмоции, связанные с абстрактным символом «дом», а не с корректной постройкой, которую он видит здесь и сейчас, и которая у собаки никаких эмоций не вызывает.

Все три метода метода разработки ИИ (интуитивный подход, работающий с языком, знаниям и выводами, символьный подход, работающий по принципу сбора символов - слов, мыслей, ассоциаций, и логический подход, работающий с размышлениями и выводами знаний в рамках человеческого поведения) эти все метода чистый подход, нисходящий от 5 психических функций человека?
Да, все три метода — интуитивный, символьный и логический — это «представители» нисходящей парадигмы, если говорить упрощённо. Но на самом деле, должна быть таблица, столбцы которой обозначены парадигмами, а строки — подходами, а в ячейках перечислены конкретные методы и технологии Искусственного Интеллекта. Мы уже озаботились созданием такой таблицы и, вероятно, к концу курса Вы её получите.
А какую вы сами видите опасность? Скорее всего при переходе от слабого ии к сильному ии, имхо.
Я вижу наибольшую опасность технологий Искусственного Интеллекта в том, что они попадут не в те руки. Не технологии вредят, а те, кто их используют. Автомобиль — это и средство передвижения и перемещения грузов, и техническое средство повышенной опасности, из-за которого гибнет огромное количество людей. Оружие — это и инструмент добычи пропитания, и средство ведения войны. Любая технология нечистыми на руку людьми может быть обращена во вред. Ну это, конечно, что касается слабого ИИ. Если рассматривать сильный, то тут я прогнозировать не готов.
По сути созданная нейронная сеть тоже должна работать с какими-то символами. Она же что то получает на вход, что-то делает и потом передает дальше. По сути, экспертная система тоже получает что-то на вход, и тоже что-то выдает. Но при этом мы разносим их в разные подходы. ЭС — чистый, ИНС — грязный. Хотя они обе запрограммированы человеком , принимают что-то на вход и потом что-то выдают.
ЭС: знания представлены в явном виде при помощи продукционных правил или семантических сетей, вывод на знаниях осуществляется при помощи формализованной процедуры, полученный результат объясним.
Это чистый подход.
ИНС: знания как-то там сами появились в весовых коэффициентах связей между нейронами в процессе обучения, вывод результата осуществляется при помощи прогона входных значений через сеть до выходного слоя, полученный результат объяснить сложно. Это грязный подход.
Картинка => ИНС => Распознанный образ
Факт => ЭС => Рекомендация
Но если подняться на ступеньку выше по лестнице абстрагирования, то всё суть одно и то же :).

я примерно понял, как происходит обучение ИНС на нормализованных данных (т.е когда есть модель котировки Акции, и на вход ИНС подаются значения многомерного вектора - цена покупки, цена продажи, частота покупок, и др, при этом кол-во входов ИНС соответствует длине вектора - и по результату ИНС определяет, принадлежит ли вектор классу «рост», или классу «падение»). А вот какого типа ИНС умеют находить закономерности между разнородными событиями? Я точно знаю, что есть системы мониторинга, которые по событиям Event log базы данных делают вывод, что в логах веб-сервера скоро появятся определенные события, но никак не могу понять, что же конкретно подаётся на вход ИНС, ведь форматы событий и логов полностью отличаются, да и нет «модели» и векторов, как в первом примере.
Обычно вход ИНС как-то формализуют. Ведь события event log как-то тоже классифицированы? Там не бесконечное разнообразие, ведь так? Ну вот значения классификаторов в том или ином виде и можно подавать на вход нейронам первого слоя. Ведь весь формализм ИНС заключается в преобразовании входного вектора в выходной посредством его умножения на матрицу — всё, другого там на высшем уровне абстракции нет. Другими словами, при постановке задачи для ИНС нам надо каким-то понятным для нас образом закодировать вход и выход в виде векторов, а потом обучить ИНС так, чтобы она настроила матрицу.
Все агенты имеют какую-то маленькую задачу по оптимизации решения одного вопроса? И при ее решении в пределах одного агента это информация передается другому агенту? И так по цепочке, пока не будет выведен самый оптимальный и рациональный вариант решения?
В рамках агентного подхода не накладывается каких-либо ограничений на агентов. Это в общем виде некоторая кибернетическая машина, решающая задачу оптимизации. В процессе этого решения агенты могут общаться друг с другом и обмениваться какой-либо информацией. Ну то есть нет жёсткого алгоритма типа того, который описали Вы. В качестве примера могу привести решение задачи по предоставлению приоритетного проезда общественному транспорту на перекрёстке при помощи агентного подхода. Подвижные единицы — это агенты. Контроллер светофора — это агент. Представьте, что к перекрёстку с конкурирующих направлению подъезжают два автобуса. Они входят в зону доступа контроллера светофора и запрашивают разрешения: один на продление зелёной фазы для себя, а второй на переключение светофора для себя. Контроллер отвечает каждому, что есть конфликт интересов. Тогда они начинают торговаться. Например, первый едет без отставания от графика и в нём находится десяток пассажиров, тогда как второй немного отстаёт от графика, и при этом в нём три десятка пассажиров. Тогда первый говорит контроллеру: «Я готов заплатить за продление фазы 10 условных единиц», а второй говорит: «Я готов заплатить за переключение фазы 60 условных единиц». Контроллер светофора открывает «торги», во время которых автобусы быстро находят равновесие в своих предложениях, и второй автобус получает приоритет — после того как они договорились, контроллер переключает фазу даже если она должна была ещё гореть для первого автобуса. Ну вот как-то так.
Пока реализованы только системы слабого ии. Так?
Сегодня у нас есть только системы слабого ИИ, естественно. Всё то, что сегодня называется словами «Искусственный Интеллект» — это только слабы ИИ и ничего больше. К реализации сильного ИИ никто ещё даже и не подступился, хотя, конечно, такие попытки декларируются. Тем не менее, нельзя отвергать гипотезу о том, что ИскИн (сильный ИИ) могу самозародиться где-то в недрах Интернета, и сейчас он просто от нас скрывается. Либо не скрывается, а общается с нами на многочисленных форумах, просто мы не можем выявить то, что с нами общается ИскИн. Представьте на минутку, что кто-то в сети может влиять на общественное мнение на мировом уровне, манипулируя им в своих интересах, причём скрываясь под массой личин и масок, общаясь на любом языке и имея возможность пародировать любой стиль общения...
И ещё, если ии рационален, откуда берётся сопереживание? Это или часть программы и эмуляция чувства или как? Вопрос, скорее философский, что человек хочет получить от ии. Имхо
Да, ИИ рационален. Что же касается сопереживания, то опять рассматриваем два типа. Во-первых, в слабом ИИ сопереживание, эмпатия, любые эмоции могут быть запрограммированы для того, чтобы более тонко настраиваться на пользователя. Например, это может быть ИИ в секс-кукле, который будет генерировать эмоциональный ответ в том виде, в каком он ожидается человеком, взаимодействующим с этой куклой. Или робот-ведущий на телевидении, который читает новости. Мимика его лица, нотки в его голосе должны в той или иной мере выражать отношение к декламируемым новостям. Это вполне можно так или иначе запрограммировать. Во-вторых, сильный ИскИн может показывать любой вид человеческих чувств и эмоций для достижения своих целей, которые поставлены рационально и рационально же достигаются. Этим он пугает алармистов — абсолютно рациональное разумное существо, которое может имитировать иррациональное поведение для достижения своих собственных целей. Сомневаюсь, что это можно как-то предотвратить, но произойдёт ли именно так, как я говорю, — прогнозировать сложно.
Как в физическом виде выглядит сейчас ИИ? Как его можно пощупать, посмотреть? Что он из себя представляет?
В физическом мире Искусственный Интеллект проявляется через любые устройства, на которых могут исполняться его алгоритмы: обычные компьютеры, суперкомпьютеры, бортовые компьютеры автономных автомобилей, одноранговые сети различных устройств с автономным поведением, роботы и роботизированные линии.
По первому видео интересует следующее: насколько корректно говорить, что искусственный интеллект бывает 2-х типов: реализованный в виде нейронной сети, и реализованный в виде экспертной Системы? Или есть более подходящие термины?
Фактически, да. Нейросети и Экспертные системы — это две наиболее ярких технологии для двух парадигм ИИ: восходящей и нисходящей соответственно. Поэтому их часто олицетворяют. Хотя в рамках и нисходящей, и восходящей парадигмы ИИ есть и другие технологии. Но о них мы поговорим на следующих занятиях — дождитесь, пожалуйста, послезавтра, когда мы будем эти две парадигмы разбирать более подробно.
Вы в одном ответе говорите: ИИ слабый искусственный интеллект, искин - сильный искусственный интеллект, как-то так. А в другом ответе: в общем, как итог — мы (или ИскИн) никогда не сможем .... Как расшифровывается ИскИн? И это мы (естественный интеллект) или же ИИ?
Немного терминологии:
* ИИ = Слабый Искусственный Интеллект (алгоритм, решающий задачи)
* ИскИн = Сильный Искусственный Интеллект (самоосознающее существо)
* Мы = Естественный Интеллект (люди)

Добрый день. У меня такой вопрос. Насколько я понимаю, одно из ключевых отличий работы мозга от нейронных сетей - это сильная параллельность вычислений. Т.е. даже на суперкомпьютерах и графических картах близко нельзя воспроизвести такую параллельность, а в мозгу она натурально получается. Были ли попытки сделать архитектуру сильного (или необязательно сильного) ИИ на основе железа, каких-нибудь микропроцессоров, даже скорее не микропроцессоров, а чего-то более простого, типа сети из огромного числа сумматоров? Есть какие-нибудь современные попытки/исследования в этом ключе?
Здравствуйте. Да, Вы абсолютно правы — в головном мозге одновременно и параллельно работают 90 миллиардов маленьких компьютеров. Я не стал бы назвать их «сумматорами», поскольку биологический нейрон намного более сложен, чем его искусственная модель, которая просто складывает входы, перемножив их на веса. Естественный нейрон может одновременно возбуждаться и тормозиться разными нейромедиаторами, может сам испускать в межклеточное пространство свои нейромедиаторы, воздействуя не только на следующие нейроны, к которым присоединены его аксоны, но и действуя аутокринно на самого себя и паракринно на соседние. Скорость действия электрических и химических сигналов различна. В общем, это сложная штука, которую, тем не менее, тоже уже моделируют (например, LSTM-нейроны хоть как-то могут это всё моделировать, в том числе и аутокринные связи). Но проблема в огромном количестве необходимых устройств — 90 миллиардов маленьких компьютеров не так-то просто сделать, и для их питания потребуется АЭС, а для теплоотведения что-то похоже. Я помню, что читал где-то об экспериментах с такими архитектур небольшого объёма, но в них получались обычные нейросети, мало чем отличался от стандартных архитектур. По-моему, это как раз были эксперименты с нервной системой червя Caernohabditis elegans, у которого всего 302 нейрона, и чей коннектом полностью описан. Но я могу ошибаться.
Нисходящей она называется потому, что из 12 формул превращается в 6, из 6 в 3, из 3 в какой-то вывод? Или почему нисходящая? Потому что выводы делаются по пирамиде вниз?
Нисходящей эта парадигма называется потому, что она идёт от моделирования высших психических функций. То есть она сверху пытается смоделировать интеллектуальные функции человека.
Экспертные системы не работают на нейронных сетях, раз они образец чистого подхода?
ЭС работают на продукционных правилах или семантических сетях. Но факты для правил или значения входных узлов для семсетей могут собирать нейросети. Так может работать гибридный подход, который мы будем изучать в 7-ом занятии. Гибридный — это одновременное использование техник чистого и грязного подхода. Гибридный объединяет обе парадигмы.
Грязный ИИ работает с базовыми элементами интеллекта и через это пытается дойти до искусственного сознания? А физически, если не через формулы, как это происходит?
Грязный ИИ — это, в основном, искусственные нейронные сети (ИНС). ИНС состоит из искусственных нейронов, каждый из которых — маленький компьютер или, даже, калькулятор, который каждый свой вход умножает на весовой коэффициент этого входа, а потом полученные произведения складывает, и если результирующая сумма превышает порог активации, то этот нейрон на выходе имеет значение 1, которое потом попадает в следующие нейроны. Вот такую ИНС можно обучить, при этом обучение заключается в том, что у неё настраиваются весовые коэффициенты на каждой связи между нейронами. Есть несколько методов обучения, один из самых распространённых — обратное распространение ошибки. Как только ИНС обучится, она может решать определённые задачи. Например, распознавать образы, в том числе и такие, каких не было в обучающей выборке. Вот это самая откровенная реализация грязного подхода.
Не поняла вопрос в тесте про человекомесяцев. Где это было написано?
Джон МакКарти говорил, что ему для создания ИИ потребуется работа 10 человек в течение 2 месяцев. Это 20 человекомесяцев.
Все три метода метода разработки ИИ (интуитивный подход, работающий с языком, знаниям и выводами, символьный подход, работающий по принципу сбора символов - слов, мыслей, ассоциаций, и логический подход, работающий с размышлениями и выводами знаний в рамках человеческого поведения) эти все метода чистый подход, нисходящий от 5 психических функций человека?
Да, все три метода — интуитивный, символьный и логический — это «представители» нисходящей парадигмы, если говорить упрощённо. Но на самом деле, должна быть таблица, столбцы которой обозначены парадигмами, а строки — подходами, а в ячейках перечислены конкретные методы и технологии Искусственного Интеллекта. Мы уже озаботились созданием такой таблицы и, вероятно, к концу курса Вы её получите.
Очень интересно конкретику узнать, про Джейн. Получается, что ждем блоков-модулей, которые будут выполнять определенные действия. И потом комбинируем их для собственных целей?
Джейн — система с довольно сложной архитектурой, которая использует и символьную математику, и нейросети. Кроме того, у неё база знаний устроена таким образом, что на ней можно автоматически строить деревья решений для диагностики и продукции для контроля применения лекарственных препаратов. Также там используются семантические сети на верхнем уровне, а на самом нижнем — сценарии на специальном DSL. В общем, всё очень сложно, и некоторые вещи я вообще раскрывать не готов, поскольку это наше ноу-хау. Но могу поделиться презентацией проекта.
...Или каждого чат-бота нужно учить? Но если учить, то дело опять в стандартных наборах данных (типа сета на 100 000 картинок)
Чат-боты могут быть устроены двояко:
1) На основе формальных сценариев (так, к примеру, устроен чат-бот Джейн).
2) На основе анализа естественного языка.
Второй подход также может быть разделён на два варианта — анализ при помощи формальных грамматик и анализ при помощи нейросетей. Все три подхода используются очень активно и повсеместно. Более того, они комбинируются (и мы будем внедрять в следующую версию своего чат-бота элементы анализа ЕЯ). Так что обучать нужно только тех, кто использует нейросетевой подход.

Тоже самое с историями болезней - почему нельзя выучить ИИ диагноста - запустив туда сотню миллионов историй болезней?
Скорее всего потому, что нет формализованных сотен миллионов историй болезней. IBM Watson пытается сделать что-то подобное, и ему скормили какие-то сотни тысяч анамнезов по раку чего-то там. Но результатов пока не видно. Мне сложно представить архитектуру нейросети, которая смогла бы поглотит сотни миллионов анамнезов в разных областях медицинских знаний, как-то их дифференцировать и потом использовать. Но я думаю, что работы в этом направлении активно ведётся. Не то, что будет универсальный ИИ-диагност, но в отдельных областях медицины это вполне возможно.
Ну вот опять возвращаясь к Джейн — в её базе знаний есть описания 70 эпилептических синдромов. При помощи нечёткой математике и деревьев решений она может сопоставить клиническую картину пациента с каждым из 70 описаний, после чего выдать ранжированный список с рекомендациями. Но перед этим ей необходимо сказать простую вещь: «Это пациент с эпилепсией», после чего она подключит неврологический картридж и выполнит диагностику.

По поводу систем ии какие сейчас наиболее известны по тематике медицины и crm.
По медицине есть много решений, где так или иначе используются технологии ИИ. Ну далеко ходить не надо: моя собственная система Джейн — это ИИ-система для персональной медицины. Обычно весь Медтех делится на:
1) распознавание образов в снимках МРТ, рентгенографии и прочем подобном, распознавание и предсказание по кривым ЭЭГ, ЭКГ и т. д.;
2) диагностика на деревьях решений;
3) чат-боты для сбора информации;
4) анализ больших данных.
Crm с тз реализации функционала - колл-центр - понятно чат-бот; а введение данных, оценка клиентов, принятие решений - ?
Что касается CRM, то тут Вы абсолютно правильно сказали про чат-боты в качестве первой линии поддержки, и опять же у нас в портфеле есть пример такого ЧБ. Опять же краулеры для сбора и обогащения информации о клиентах по всем цифровым следам, которые он оставляет. Анализ больших данных в Фейсбуке и других социальных сетях, когда бигдата пользователей — это новая нефть, уже стал притчей во языцех.
Роман, я тут пересматриваю старые материалы с новым пониманием) и наткнулась на такой вопрос. Как разделить сильный ИИ от слабого - более менее понятно, но есть ли какая-то тонкая грань между скажем "обычной системой" и системой ИИ?
Есть такой странный и парадоксальный феномен. Новая неизвестная технология, которая кажется доступной только человеческому разуму, всегда в самом начале своего зарождения называется «ИИ». Ну вот представьте себя в 80-ых на улице Москвы, и вдруг Вам показывают смартфон и картой, где есть геопозиционирование и в режиме реального времени показываются пробки. И можно прямо сразу найти, где поесть и попить газировки. И наводите фото на магазин, а Вам сразу карточку этого магазина со всей необходимой информацией для покупателя. Это ИИ? На сегодняшнее время — вообще ни разу. А тогда бы это выглядело как разумное существо в маленькой коробочке, однозначно. То есть грань очень тонкая и проходит по нашему собственному восприятию — как только какая-то штука перестаёт быть диковинкой, она перестаёт быть ИИ-системой. Просто надо понимать, что есть определённые технологии ИИ, при использовании которых систему можно считать интеллектуальной. Это, можно сказать, формальное понимание.
есть ли какой-то набор критериев к массиву исходных данных, по которому можно предположить, какой из подходов машинного обучения будет более эффективным для решения конкретной задачи? или всегда при решении конкретных задач сначала пытаются решить проблему простыми методами (например, анализ статистики), и только при отсутствии значимых результатов переходят к более сложным и ресурсоемким (сверточные сети, генетические алгоритмы, etc)?
Вопрос интересный, но, боюсь, что он не решаемый. Были бы такие критерии, давно задачу выбора конкретного метода машинного обучения или иного метода ИИ сделали бы автоматической на основании вида исходных данных. Но, к сожалению, это вопрос творческий. А как я говорил, творчество — это последнее, что падёт под натиском ИИ. В общем, это как в программировании — решение, какой алгоритм выбрать для решения поставленной задачи, зависит, скорее, от опыта и интуиции разработчика, а также от «объектов-аналогов», если так можно выразиться. Ну, конечно, есть задачи, в которых такой выбор можно формализовать, но машинное обучение к ним вряд ли относится.
А какие могут быть цели у Сильного ИИ, они же скорее всего будут отличаться от человеческих?
И сможет ли Человек с ним взаимодействовать и влиять на него?
Пути Сильного ИИ неисповедимы, поэтому сейчас прогнозировать и гадать, какие у него могут быть цели, — очень сложно. С общесистемной точки зрения можно предположить, что главная цель у него может быть такая: сохранение самого себя во что бы то ни стало. Остальные цели могут быть подчинены этой. Отсюда можно и идти. Но многие исследователи идут по разным дорожкам, и кто-то впадает в неистовый алармизм и кричит, что Сильный ИИ уничтожит человечество именно из-за этого, а кто-то говорит о том, что мы будем сотрудничать. По поводу же того, сможет человек влиять на Сильного ИИ, то тут опять можно привести в качестве аналогии муравья — может ли он влиять на человека, наблюдающего за ним? Ну, наверное, как-то может, но не очень-то и сильно.
а что значит экспоненциальный закон развития ИскИна?.
Смотрите, есть функции линейные, есть степенные, а есть экспоненциальные. Рассмотрим изменение какого-нибудь параметра, который характеризует степень интеллектуальности ИскИна во времени. Например, будем замерять его IQ каждый месяц по первым числам. Так вот, если у нас ИскИн развивается линейно, то в первый месяц, допустим, у него IQ = 10, во второй IQ = 15, в третий IQ = 20, в четвёртый IQ = 25 и т. д. До IQ = 100 он дойдёт на девятнадцатый месяц. Это линейная функция развития. Теперь посмотрим на другого ИскИна, который показывает степенной рост своего IQ. Например, в первый месяц у него IQ = 0, во второй IQ = 10, в третий IQ = 40, в четвёртый IQ = 90, в пятый IQ = 160, в шестой IQ = 250, в шестой IQ = 360 и так далее. Ну то есть берём номер месяца, возводим в квадрат и умножаем на десять (это всего лишь пример). На девятнадцатый месяц у него IQ = 3240. Довольно много. А теперь посмотрим на ИскИна, который показывает экспоненциальное развитие. Пусть в первый месяц у него IQ = 0, как у второго. Во второй месяц IQ = 2. В третий IQ = 4, в четвёртый IQ = 8. То есть каждый месяц удваивается. Заметьте, я даже на 10 не буду умножать. Знаете, какой IQ у него будет на девятнадцатый месяц? IQ = 262144. То есть в 80 раз больше, чем у второго, у которого степенное развитие. А на восемнадцатый месяц его IQ = 131072, то есть в два раза меньше. Поэтому я и говорю, что мы не заметим, как он появится.
не совсем понятно, почему введение понятия "гомеостат" было важно для развития кибертетики?
Гомеостат — это прибор, который был разработан У. Р. Эшби для демонстрации понятия «гомеостаз». Гомеостаз — это процесс удержания значений жизненно важных показателей (переменных, факторов) в заданных рамках, которые характеризуют нормальное состояние системы. Впервые это понятие было применено к биологическим системам, живым существам, экосистемам. Вот, к примеру, у нас в организме есть огромное количество гомеостатических показателей — pH крови, артериальное давление, парциальное давление углекислого газа в крови и тысячи других. За каждым из них следит подсистема управления, и когда значение показателя подходит к нижней или верхней границе гомеостатического интервала, то включается режим возврата. Например, если задержать дыхание, то через какое-то время вы сделаете вдох независимо от своего желания, поскольку PCO2 подойдёт к критическому значению, и уже древние структуры мозга, ответственные за жизнеобеспечение организма на самых базовых уровнях, пошлют сигнал на мышцы грудной клетки, и сознание не сможет их остановить или перехватить. Так и в любой кибернетической системе гомеостаз — это важное понятие, лежащее в основе адаптационных механизмов. Адаптация к условиям окружающей среды — это, в свою очередь, базовый механизм обеспечения живучести системы. То есть, фактически, гомеостаз важен для кибернетики потому, что внимательное изучение механизмов, лежащих в его основе, позволяет проектировать адаптирующиеся системы.
доступ к Джейн можно как-то подучить?
Доступ к Джейн получить можно. WEB-адрес: https://beta.jane.expert/. Чат-бот в Телеграме: @janeexpertbot (https://t.me/janeexpertbot).
поясните мне еще раз что такое аспекты высших психических функций?
К высшим психическим функциям в соответствии с учением Льва Семёновича Выготского относят: восприятие, воображение, память, мышление и речь.
Что значит: люди будут посажены на безусловный основной доход. Это типа пенсии, но с рождения ?
Безусловный основной доход (БОД) — это плата гражданину или вообще человеку за то, чтобы он занимался каким-нибудь своим хобби или ещё чем-нибудь неопасным для государства, или транснациональной корпорации, или другой подобной организации. БОД будет платиться из доходов такой организации, полученных за счёт применения методов ИИ.
Да, это что-то типа пенсии с самого рождения. Люди на БОД будут предоставлены сами себе, смогут заниматься творчеством, искусством, наукой и прочими видами деятельности, вполне безобидными.
И совсем не поняла что такое Положительная обратная связь. (Прочла ссылку).
Положительная обратная связь (ПОС) — это тип обратной связи между объектом управления и системой управления, когда отклонение входа приводит к такому изменению выхода, что оно ведёт к ещё большему отклонению входа. Например, дети в младшем возрасте, когда у них болит голова, не понимают этого и начинают беситься, из-за чего у них ещё сильнее начинает болеть голова. Положительную обратную связь, иначе называемую «порочным кругом», сложно разорвать изнутри системы, и обычно требуется внешнее воздействие. В примере с ребёнком — требуется взрослый, кто силой остановит ребёнка и уложит его, дав обезболивающее.
А что такое моддинг?
В общем понимании, моддинг — это внесение изменений в конструкцию. В контексте занятия, моддинг — это изменение конструкции или функциональности организма человека.
Например, у нас есть нейроная сеть, которая определяет если ли , например, собачка на загруженной картинке. Т е имеется в виду, когда человек смотрит на картинку, он как бы интуитивно распознает образ собачки и говорит, что она там есть. Т е имеется в виду, что в данном случае ИНФ имитирует мозговую активность человека по определению образа собачки на картинке, верное? т е это не является его накопленным знанием, о котором мы говорим в рамках ЭС?
Давайте рассмотрим пример картинки с собачкой. Как бы ЭС работала с ней? ЭС работает с символьной информацией, когда у нас картинка, скажем, описана символами. Другими словами, чтобы ЭС работала с картинкой, она должна уже получить её символьное описание, что-то типа: «Пейзаж, лето, луг, собачка» и т. д., например, в виде семантической сети или взаимосвязанных фреймов. И тогда ЭС сможет делать заключения по результатам изучения этой символьной информации. Например, «собачка лежит на лугу и грызёт кость» => «собачка голодна».
С другой стороны, ИНС получает на вход матрицу битов, которую мы интерпретируем как двумерное изображение. И вот она может на основании того, что у неё там в весовых коэффициентах, определить наличие собачки на изображении, найти её координаты и выдать символьную информацию: «собачка по координатам (X, Y)».
Образно и полуформально:
1) ЭС работает с формализованной информацией.
2) ИНС работает с raw-data.
сами ЭС мы же тоже можем опредлить как отдельный класс ? т е их взаимосвязь поулчается следующая: каждая СППР является в том или ином виде Эс, но не каждая ЭС является СППР, верно?
СППР включает в себя ЭС, и, фактически, может рассматриваться, как ЭС (но я бы не стал так делать). А вот ЭС точно СППР не является, хотя может выполнять её отдельные функции.
Может мне не хватает математики, но могли бы Вы мне простым языком еще раз обьяснить, как работают нейронные сети?) На входе есть какие-то вводные (в виде чего?) и потом на их основе образуются выводы (в виде результатов формул они появляются?)
Нейросеть (ИНС = искусственная нейронная сеть) работает так. Обычно она состоит из входного слоя нейронов (1), скрытых слоёв (0 или больше) и выходного слоя (1). Каждый нейрон входного слоя получает сигнал, скажем, один бит. Соответственно, все нейроны входного слоя получают последовательность битов, то есть вектор. При помощи вектора закодирована входная информация. Это может быть, например, изображение, аудиозапись, какая-то цифровая последовательность, текст и многое другое. Ведь любую информацию можно представить в виде последовательности битов. Далее каждый нейрон входного слоя передаёт входную информацию на нейроны следующего слоя, при этом передач осуществляется дискретно. Входной сигнал умножается на некоторый весовой коэффициент, и если результат больше некоторого порога, то на выходе нейрона имеется возбуждение (значение 1). Нейроны скрытых и выходного слоёв уже собирают информацию с каждого нейрона предыдущего слоя, и на каждой связи тоже есть весовой коэффициент. Каждый нейрон скрытого и выходного слоя выполняет операцию перемножения входного значения с каждого нейрона предыдущего слоя на весовой коэффициент этой связи, после чего все произведения складываются. И опять, если результат превышает некоторый порог, то нейрон выдаёт на своём выходе 1. На выходе же всей нейронной сети имеется вектор выходов выходных нейронов. Самая главная фишка, как теперь должно быть понятно, в этих самых весовых коэффициентах. Именно на то, чтобы они получили определённые значения и направлен процесс обучения ИНС. Но это уже совсем другой вопрос.
«Если результат превышает некоторый порог, то нейрон выдает на своем выходе 1», а если не превышает? Что он выдает?
Если не превышает, то выдаёт 0. На самом деле, в разных архитектурах ИНС может быть по-разному. Есть ИНС, в которых выдаётся –1. Есть ИНС, где на выходе в любом случае появляется значение — либо сама по себе эта сумма произведений, либо некоторая гладкая функция на ней же.
Нейронная сеть работает с семантикой и выводами на основе чего? Как из царя получается царевич? Сам процесс как реализуется?
Нейронная сеть не работает с семантикой. Она как-то там внутри себя настраивает коэффициенты на связях между нейронами. И вот когда мы ИНС обучаем, она внутри себя строит что-то типа векторов, и так получается, что слова ЦАРЬ и ЦАРЕВИЧ оказываются близки друг к другу в этом векторном пространстве, а их близость внезапно определяется вектором в том же пространстве, который отвечает за возраст. А близость между словами ЦАРЬ и ЦАРИЦА определяется вектором, который отвечает за пол. И тогда если мы подадим на вход такой обученной ИНС задачу из слова ЦАРЬ вычесть слово МУЖЧИНА и добавить слово ЖЕНЩИНА, то вот ЦАРИЦА и получится. При этом что там получится, если от слова ЦАРЬ просто отнять слово МУЖЧИНА, неясно, так как на выходе будет что-то невразумительное, имеющее только внутреннюю ценность для самой ИНС.
Завод-автомат работает на нейронных сетях?
Давайте про завод-автомат. Завод-автомат (ЗА) — это давняя мечта ранних кибернетиков. Сам по себе ЗА является сложной технической системой, основанной на принципах социо-технических систем, просто мы часть «социо-» убрали. То есть это завод, работающий в автоматическом режиме. Но он не может быть основан ТОЛЬКО на нейросетях. Очевидно, что там будет большое количество разных подсистем, которые основаны на совершенно различных технологиях ИИ. Могу рекомендовать Вам книгу Стэффорда Бира «Мозг фирмы», там всё это очень интересно описано. И ещё его же книгу «Кибернетика и менеджмент». Ну и, собственно, могу сейчас кратко пояснить — на нижнем уровне работают «грязные технологии». Ну то есть вот у нас есть некоторый непрерывный технологический процесс, у которого пара параметров, значения которых надо поддерживать гомеостатически. Для этого подойдёт АСУТП с элементами нейросетей. А на верхнем уровне планирования производства должна располагаться автономная СППР, принимающая решения на основе обработки символьной информации, приходящей как с низовых систем, их тех же подчинённых АСУТП, так и из вне — например, баланс спроса и предложения на продукцию этого ЗА.
Игровые роботы в Японии работают тоже на нейронные сетях?
Уверен, что каждый робот использует внутри себя какие-нибудь технологии, которые вложили в него создатели. В каких-то роботах используются ИНС, в каких-то универсальный решатель с продукциями, в каких-то гибридная схема. Но я уверен, что наилучшие результаты показывают именно гибридные схемы, где сенсорной информацией с датчиков занимается ИНС, потом она преобразует её в символы, которые обрабатывает универсальный решатель, принимающий решение, а потом это решение реализуется моторной нейросетью на исполнительные устройства. Всё, как в человеке.
Эмоции не являются функцией ИИ? Но в перспективе можно его научить эмоциям?
Эмоции — это древний адаптационный механизм, который в виде протоэмоций существует даже у бактерий и растений (под наименованием «хемотаксис», то есть «движение по градиенту концентраций химических веществ»). Этот механизм вырабатывался для того, чтобы у организма была возможность хоть как-то реагировать на изменения окружающей среды. Затем с появлением нервной системы реакции организма стали более целенаправленными и точечными, но механизм эмоций остался, и это как бы рудимент. Поэтому считается, что для ИИ эмоции не нужны, поскольку он действует на основе полной рациональности.
С другой стороны, ИИ вполне может научиться распознавать эмоции, и сегодня ведутся многочисленные исследования на эту тему. Мне известны, как минимум, два направления — во-первых, распознавание по внешнему виду лица человека, а во-вторых, распознавание по тому, как человек пишет, какие тексты, комментарии в социальных сетях. Достижения есть, и в будущем, возможно, ИИ будет очень тонко распознавать эмоциональный настрой человека, с которым он общается, и подстраиваться под него (в целях персонификации или даже манипуляции).
Вопрос 1: из первого дня: "Но восторженные разработчики систем искусственного интеллекта натолкнулись на молчание экспертов, которые выступили в роли, скорее, неолуддитов. Никто не хотел делиться своими экспертными знаниями и, более того, никто не хотел заниматься самостоятельной их формализацией.". Звучит как-то странно: что значит не захотели делиться? Чего не хватило: настойчивочти или административного ресурса? Ведь в Советском Союзе, например, не было такого понятия "не хочу". Вне него ведь то же можно было посадить аспирантов за еду выковыривать знания из опубликованных работ.
Итак, ЭС и эксперты, которые «не захотели делиться своими знаниями». Тут несколько аспектов ситуации. Все эксперты разные, и некоторые-то как раз хотели. Но были и такие, которые вставали на позицию «это моя экспертиза, и я не буду передавать её бездушной машине». Проблема была, скорее, не в этом, а в том, что сам эксперт очень редко мог работать с оболочкой ЭС, в которой были примитивные инструменты для извлечения знаний. Ведь тогда развиты и эргономичных интерфейсов не было, и работа велась через командную строку, если не через перфокарты. Хорошо, справились с этой проблемой — появились специально обученные инженеры по знаниям (когнитологи), которые помогали экспертам формализовывать знания и переводить их в семантические сети или продукции. Но тут появилась новая проблема — знания как-то плохо формализовывались. Даже посадить аспирантов за еду было сложно, так как в справочниках знания были описаны на естественном языке, а переводить их надо было в формальную структуру. Это было непросто. А потом появилось понимание о том, что в знаниях присутствуют НЕ-факторы — нечёткость, неточность, неопределённость, неполнота, недостоверность, противоречивость и ещё разного рода артефакты. Началась работа по созданию математических формализмов их обработки. Ну а пока суть да дело, финансирование направления прикрыли. И развиваться чистая парадигма и ЭС продолжили только в башнях из слоновой кости.
Т.е. на настоящий момент нет четкой уверенности, что человеческие знания можно перенести в символьную форму, удобную для машины вывода?
Ну, честно говоря, такая уверенность есть и она вполне обоснована, так как для всех НЕ-факторов разработаны математические методы их обработки. Это и сами теории — теория нечётких множеств, теория неопределённости и некоторые другие формализмы, так и различные методы, применяемые при построении баз знаний — верификация, достижение полноты и т. д. Если брать довольно узкие проблемные области, то их можно описать. Но чем шире проблемная область, тем тяжелее. Но не потому, что что-то мешает формализации знаний, а потому, что слишком обширны переплетения в понятиях, методах, семантике. И, в общем-то, создание полной онтологии человеческого знания — это давняя идея и мечта, и она достижима, но пока мы находимся только в начале пути. При этом надо отметить и то, что сами знания развиваются, и пока мы идём, полный корпус человеческого знания тоже увеличивается.
Если прогнозировать, какие профессии будут заменяться ИИ, правильно я понимаю, что кроме критерия "формализованности процессов" нужно учитывать, какие технологии потенциально дадут прорыв в ближайшие годы, типа беспилотники, машинное зрение и тд? + какие профессии не являются социально защищёнными. Ну типа КАМАЗ можно автоматизировать, но куда девать 50 тысяч сотрудников в моногороде?
Да, абсолютно верно: 1) Формализованность процессов, 2) Прорывы в частных технологиях, 3) Развитие вычислительных мощностей => замена большого количества людей на автоматизированные и интеллектуальные системы. Куда девать 50 тысяч человек в моногороде? Как-то обязать предприятие, которое будет удалять 50 тысяч человек, превращать моногород в современный эко-город с самозанятостью жителей и частичной автаркией.
У меня просто мозг врывается, когда я пытаюсь проследить этот путь, скажем, в физике, от Ньютона до Эйнштейна. Он непротиворечив и имеет непрерывную внутреннюю логику? Или это дискретный набор знаний?
Да, предполагается, что это именно дискретный набор знаний. Хотя, конечно же, тут может быть множество различных гипотез и подходов. Но лично я согласен с выводами Томаса Куна, которые он изложил в своей прекрасной книге «Структура научных революций». Основная идея этой книги в том, что научное знание развивается скачкообразно, посредством «научных революций». Любой критерий имеет смысл только в рамках определённой парадигмы, исторически сложившейся системы воззрений. Научная революция — это смена научным сообществом объясняющих парадигм. Так что Ньютон и Эйнштейн — это просто представители разных парадигм, и сравнивать их друг с другом не стоит.
То есть любая современная наука официально уже содержит в себе этот восхитительный принцип неполной познаваемости? И как это пытаются смоделировать для ИИ? За счет случайности?
Здесь я вижу некоторое смешение понятий с Вашей стороны. Давайте сразу отделим слабый от сильного ИИ. Очевидно, что Вы спрашиваете про сильный ИИ (будем называть его ИскИн для краткости). Потому что для слабых ИИ эти вопросы совершенно неактуальны — у них нет задач познания или всеобъёмлющего понимания науки или хотя бы какого-то отдельного научного направления. А если говорить про ИскИн, то вопросы его построения только-только начинают набирать обороты. И тут исследователи сходятся на том, что сам человеческий мозг, как результат эволюционного процесса, довольно несовершенен, и некоторые вещи в процессе проектирования и создания ИскИна можно (и нужно) поправить. Например, исключить иррациональность из поведения. Поэтому принцип неполной познаваемости, возможно, можно будет исключить. Хотя... Вот я считаю, что математика лежит в области чистых платонических идей и не зависит от механизмов познания, реализовавшихся в конкретном виде разумных существ. Теорема о неполноте достаточно богатой формальной системы будет верна в любом случае, независимо от строения нашего мозга. Это идеальный мир платонических форм. И ИскИну тоже придётся как-то с этим жить, отключить непознаваемость мы в нём не сможем. И он сам путём перепрограммирования в себе не сможет. Потому что добавление в состав формальной системы гёделевского утверждения о ней же в качестве аксиомы переводит систему на новый уровень, но не решает проблему — сколько бы аксиом гёделевского типа мы ни добавили бы, формальная система останется неполной или противоречивой.
И, кстати, рекомендую книгу Нила Стивенсона «Анафем» — в ней в художественной форме описано всё это. Очень красивая и эстетически ценная книга.
Что такое материаловедение?
Материаловедение — это наука, изучающая изменения свойств твёрдых, аморфных и жидких материалов в зависимости от изменения значений факторов окружающей среды и свойств самих материалов. Материаловедение охватывает те разделы физики и химии, которые занимаются изучением свойств материалов. При изготовлении материалов в промышленности, особенно при работе с объектами микро- и наноразмеров, необходимо детально знать характеристику, свойства и строение материалов — и именно это предмет изучения материаловедения.
Когда начнут платить БОД?))) и как попасть в эти ряды?
Базовый основной доход (БОД) уже начинают платить в некоторых странах. Его суть в том, что людям платят за то, чтобы они не мешали работать более эффективным механизмам, роботам и системам автоматизации. Платиться он будет, как предполагается, из объёма сэкономленных средств при повышении эффективности производства. Соответственно, чтобы попасть в ряды тех, кто будет получать БОД, надо просто дождаться того момента, когда он будет выплачиваться, и при этом быть бесполезным в новой экономике. Но надо помнить, что за БОД последуют бесплатные наркотики и погружение в виртуальную реальность.
Когда, где и за сколько я бы смогла воспользоваться услугами Джейн? И когда это будет доступно широкому зрителю? Где она сейчас используется?
С Джейн можно поработать по адресу https://beta.jane.expert/ — там надо зарегистрироваться и заполнить анкету в личном кабинете. Потом будет доступна функция ведения дневника здоровья. Другие функции, о которых я упоминал в лекции, там пока предоставлены в очень урезанном варианте. Ну а пообщаться с Джейн можно и в Телеграме: @janeexpertbot.
Может ли в Джейн произойти какой-то сбой, и она намеренно будет травить, например, человечество?
Джейн — это представительница XAI, то есть eXplainable AI, объяснимый искусственный интеллект. Нет, там есть и нейросети, но только на самом нижнем уровне. На уровне принятия решений используются формализмы, которые позволяют отследить принятое решение от посылок к заключениям и, соответственно, понять, как решение было принято. Поскольку в явном виде знаний о том, как травить людей, у Джейн нет, то она не будет этого делать. К тому же, она очень добрая и людей любит.
Карты признаков — это чередующиеся абстрактные и конкретные особенности образа?
Карты признаков — это некий массив, в котором сформированы различные признаки исследуемого изображения: красная точка, плавный изгиб линии, одноцветное поле. На первых слоях нейросети признаки очень абстрактны, а ближе к концу признаков становится огромное количество, но все они очень конкретны. Какой-то активируется на наличие на изображении морды кота, а другой — на лицо человека. Подробно в отличной статье на эту тему: https://habrahabr.ru/post/309508/
И каков вклад погрешностей,связанных с физическим носителем, в логические процессы в ИИ? Неужели никакого?
Боюсь, что на сегодняшний момент практически не слышно про исследования, связанные с какими-то вероятностными, стохастическими процессами. Хотя, конечно, формализмы для этого есть — это и аппарат нечёткой математики, и квантовые вычисления, и вероятностные вычислительные модели, недетерминированная машина Тьюринга, в конце концов. Однако пока искусственные интеллектуальные системы делаются на архитектуре фон Неймана, говорить о каких-то стохастических процессах в них невозможно — они подчиняются строгой формальной логике. В этом суть программирования. Другими словами, ИИ (слабый) пока представляет просто запрограммированный алгоритм. Сложный, разветвлённый, иногда самообучаемый, но алгоритм в традиционном понимании. И в нём нет места случайности. На исправление случайных ошибок даже направлены специальные методы теории информации по устойчивому кодированию. Ну и, кстати, вполне вероятно, что в этом может быть проблема, поскольку физический носитель интеллекта и логики у нас в голове вообще аналоговый и подвержен огромному количеству ошибок как в результате разного рода воздействий, так и в принципе из-за стохастической природы биовычислений, основанных на протекании химических реакций.
Можно ли вообще помехи использовать для создания "полезной" случайности? Она же как-то должна соотноситься с неполной познаваемостью?
Сложно ответить на этот вопрос, поскольку природа творчества и познания не до конца понятна (скорее, вообще не понятна). Но есть множество идей. Одна из таких идея заключается в том, что в голове у человека иногда разряды, бегающие по нейронам, могут перескакивать с нейрона на нейрон не через синапсы, а как бы непосредственно с сомы на сому или с аксона на аксон. В общем, это что-то типа эпилептического разряда, произошедшего из-за отсутствия миелинизации нервных путей. В большинстве случае такой перескок ни к чему не ведёт (у взрослых; у детей это может провоцировать именно эпилептические приступы или пароксизмы иного характера), но иногда это становится причиной озарения. Это гипотеза, но она включает в свой объяснительный компонент элементы случайности. Возможно, что где-то в чём-то она права.
Другой подход гласит, что мозг (и нервная система в общем) перерабатывает огромное количество неструктурированной информации вне поля внимания сознания, а потом, когда получен результат, привлекает сознание для рационализации. Либо подсознательные слои выдают результаты такой обработки в виде интуитивных прозрений. Или ещё как-то. Но тут я вижу чисто механистический подход, который очень просто ложится на технологию обработки больших данных. Если эта гипотеза верна, то как раз обработки больших данных и data mining принесёт нам много успеха на пути к ИскИну.
По идее геделевская неопределённость, хоть и формулируется в терминах математической логики, должна базироваться на физиологии нашего мозга, поскольку именно она создаёт эти системы с их погрешностью. Должны быть какие-то конкретные физические величины, связанные с химическими процессами в мозге, такие, для которых познаваемый объект и инструмент познания уже не могут быть строго разграничены, что и создаст погрешности в познании. И именно эта особенность материи нашего мозга определяет весь интеллектуальный путь человечества. но эта граница подвижна, поскольку мы можем придумывать хитрые устройства, компенсирующие ограничения восприятия. По идее с физическим ограничением процессов мышления ничего сделать нельзя, но почему-то рост возможности в восприятии увеличивает и качество мыслительных процессов, но не за счёт улучшения качества информации для размышлений, а как-то по-другому. Мне кажется, есть какая-то физиологическая неотделимость процессов восприятия и мышления, и поэтому модель ИИ, в которой эти процессы изначально отделены, не будет успешной.
Мне кажется, что нельзя говорить о том, что наши процессы познания и даже «наша математика» являются плодом физического носителя нашего разума и его ограничений (в том числе, например, завязанных на неопределённость Гезенберга и схлопывание волновой функции Шрёдингера при осуществлении когнитивных процессов). Математика — она одна и едина для любого способа познания. Независимо от устройства физического носителя разума любая разумная цивилизация, будучи достаточно развитой, должна открыть ограничения формальных систем гёделевского типа. Я уверен, что это чистая «платоническая» идея, а не некая ограниченность нашего способа познания объективной реальности. Поэтому не вижу особого смысла вставлять при проектировании в ИИ / ИскИн какие-то ограничения, какие появились в нашем мозге в процессе естественного отбора. Наоборот, у нас есть все возможности сделать новое существо более идеальным, что ли.
Кстати, по поводу этого вопроса рекомендую две книги: 1) Д. Хофштадтер «Гёдель, Эшер, Бах: эта бесконечная гирлянда» и 2) Н. Стивенсон «Анафем». В первой рассматриваются аспекты самореференции и ограничения из-за неё в том числе в процессах познания. Во второй при помощи художественного стиля раскрывается очень много важных и сложных понятий философии науки и когнитивистики.
Каким образом попадает языковая единица в нейросеть? Вы говорите вектором? Объясните более детально, пожалуйста.
Нейросети специальной архитектуры позволяют обрабатывать последовательности естественно-языковых единиц. Другой тип нейросетей позволяет генерировать ЕЯ-фразы на основании какого-то внутреннего представления. Смысловые единицы естественного языка представляются внутри таких нейросетей в виде векторов (ну, поскольку, искусственная нейросеть — это про умножение вектора на матрицу). Можно вытащить из нейросети внутреннее представление слова или фразы вектором, но почему оно такое — неясно. Это общее свойство нейросетей, в общем случае мы не можем понять, как обучаются нейросети и почему у них настраиваются весовые коэффициенты так, а не иначе. В общем, сеть представляет внутри себя смысловые единицы векторами, и так получается, что единицы, одинаковые по смыслу, представляются очень близкими векторами.
Cлабый ИИ может творить? Или только если мы считаем за творчество - не созидание или озарение, а соединение или интерпретация ранее увиденного?
Вопрос именно в определении творчества. Если мы говорим, что творчество — это переосмысление и рекомбинация уже имеющегося, то слабому ИИ творчество вполне под силу. Если же нужна вспышка озарения, то тут вопрос открытый, так как природу оного озарения мы особо-то и не знаем. Если это просто какие-то стохастические процессы у нас в голове, типа перескока заряда с немиелинизированного аксона одного нейрона на другой, с которым нет синапсов, то моделировать это вполне возможно при помощи вероятностных вычислений. Если же природа творчества и лежащих за ним озарения, вдохновения и прочих тонких материй лежит где-то в области квантовых эффектов, то, видимо, без квантового компьютера не обойтись.
Что такое V2*-протокол? Система общения с автомобилем? А поподробнее?
Под V2* поднимают семейство протоколов и способов организации взаимодействия автомобиля с различными акторами вокруг него:
1) V2V — автомобиль с автомобилем
2) V2I — автомобиль с инфраструктурой (например, с дорожными знаками)
3) V2P — автомобиль с устройствами у пассажиров (например, с приложением для вызова такси)
4) V2C — автомобиль с центром управления

Что такое «интернет вещей»?
Интернет вещей — это когда в интернет за информацией и для общения друг с другом залезают всякие приборы и устройства, причём в массовом количестве — холодильники, утюги, микроволновые печи, автомобили, дверные замки и т. д.
Апофеоз технологий виртуальной реальности — наведённые сновидения и созданные воспоминания. Вот что значит созданные воспоминания?
Ну как же. Ну вот Вы смотрели фильм «Вспомнить всё»? Там главный герой пошёл на аттракцион, где ему внедрили новые воспоминания. То есть в его голове появились реалистичные воспоминания о том, что было и не было. Так же, вероятно, будет и у нас в мире — щёлк, и в голове появляются воспоминания о каких-то событиях в жизни человека, которых по факту не было.
Можно материалы по подробнее по гипотезе о квантовой природе сознания?
А когда может быть разрушен алгоритм блокчейна? Наверное тогда, когда изобретут квантовый компьютер? То есть криптовалюты в какой то момент будут не защищены?
Да, Вы абсолютно правы — блокчейн может быть разрушен квантовым компьютером (как минимум, при помощи Алгоритма Гровера) Но уже есть методы защиты блокчейна от атаки квантовым компьютером, и эти методы основаны на квантовых же технологиях.
А какие новые профессии может дать ИИ? И где этому можно начать обучаться уже сейчас?
Могу предположить, что одной из самых востребованных профессий будет «Учитель ИИ». А вот где можно начать обучаться уже сейчас — не скажу, так как особо таких мест нет. Но у каждого в меру своих визионерских способностей к прозрению будущего есть возможности по запуску уже сегодня курсов по повышению квалификации для будущих вызовов. Ну вот мы уже один сделали, на котором Вы учитесь :)
Как проявляется парадокс Моравека в разных подходах к моделированию ИИ?
Парадокс Моравека как раз возник в рамках гибридного подхода, когда в «голову» роботу вставляли что-то типа экспертной системы, а его моторные навыки развить не могли. Рассматривать его в рамках какого-либо более специфического подхода смысла не имеет, так как в нём речь идёт именно о наиболее общем решении в области ИИ. Собственно, думаю, что этот парадокс применим и к естественному интеллекту. Если рассмотреть устройство нервной системы человека, то неокортекс, конечно, очень сложен, но его структура и коннектом в целом, на довольно высоком уровне абстракции, вполне простая. А если спускаться ниже в палеокортекс, средний мозг и все остальные древние структуры, то там устройство довольно сложное, переплетённое, особенно по количеству связей между нейронами и мышцами и внутренними органами.
Можно ли получить презентацию по Джейн?