Роман душкин
Искусственный Интеллект
Базовый онлайн-курс. Неделя 4
Уроки 1 — 4 недели
Урок №1: ИИ и две зимы здесь
Урок №2: ИИ и междисциплинарные исследования здесь
Урок №3: Две парадигмы здесь
Урок №4: Интуитивный подход и тест Тьюринга здесь
Урок №5: Символьный и логический подходы здесь
Урок №6: Агенты и роевой интеллект здесь
Урок №7: Пять подходов к созданию ИИ здесь
Урок №8: Сильный и слабый Искусственный Интеллект здесь
Урок №9: Некоторые мифы об ИИ - 1 здесь
Урок №10: Некоторые мифы об ИИ - 2 здесь
Урок №11: Некоторые мифы об ИИ - 3 здесь
Урок №12: Правда об ИИ - 1 здесь
Урок №13: Правда об ИИ - 2 здесь
Урок №14: Правда об ИИ - 3 здесь
Урок №15: Несколько успешных примеров ИИ-проектов — 1 здесь
Урок №16: Несколько успешных примеров ИИ-проектов — 2 здесь
Урок №17: Несколько успешных примеров ИИ-проектов — 3 здесь
Урок №18: Философия ИИ здесь
Урок №19: Прикладное 1: ЭС и СППР здесь
Урок №20: Распознавание образов здесь
Урок №21: Чат-боты здесьУрок №22: Творчество здесь
Урок №23: Автономные автомобили здесь
Урок №24: Роботы и аватары здесь
Эссе-победитель
(орфография и пунктуация курсанта сохранены)
Как ИИ изменит нашу жизнь?


Человеческий мозг обладает возможностью доходить до решения благодаря "интуиции". Это его самый большой плюс. Но многие вещи ему не доступны. В основном это вещи, связанные с обработкой большого количества информации, со скоростью обработки этой информации, с вниманием к деталям. Увы, человеческий мозг пропускает, забывает вещи и часто приходит к ошибочному результату.
Если мы говорим о слабом ИИ, то такие системы будут все шире и шире входить в нашу жизнь. Все те действия, которые связаны с монотонной рутинной работой, которая при этом не плохо формализуема - она будет заменена ИИ. Уже даже в компании, в которой я работаю, мы заменяем десятки людей системами, основанными на машинном обучении.
Но это технический аспект. Он в каком-то смысле прост. Есть и другой аспект. С помощью таких ИИ систем у их "владельцев" окажется власть, о которой мы не могли и подумать раньше. Не только государство может использовать такую власть, но и частные компании. И мы пока даже не понимаем что хуже. Большие компании типа Google, Amazon и Facebook активно создают такие системы. Системы, которые накапливают такое количество информации о вас, что вам такое даже не снилось. Компании типа той, что создала FindFace в связке с государством и огромным количеством камер на улицах, позволяют невиданную ранее мощ находить человека где бы он ни находился.
Мы пока не до конца понимаем к каким последствиям такие вещи приведут. Последствия могут быть как прекрасными, так и печальными. И даже смесью. Мы все будем жить прекрасной жизнью, но без свободы.
Регулирование таких вещей становится насущной необходимостью, которую пока не все осознают. Приход ИИ в наш мир похож на постепенное увеличение температуры воды, в которой лежит лягушка. Она не понимает что ее варят до тех пор, когда уже поздно...
Ну а про сильный ИИ даже говорить не стоит. Его появление может изменить все в один момент.

Марко Кевац
Интересные вопросы курсантов
(орфография и пунктуация курсантов сохранены)
Какое место в доктрине ИИ занимает понятие «сознание»?
Каждый разработчик систем искусственного интеллекта, фактически, решает для себя сам. Сегодня, в основном, делаются системы слабого ИИ, поэтому в них люди не заморачиваются вопросами сознания, самосознания, интеллекта, разума и т. д. Есть задача, есть методы — вот решение. Само по себе сознание и всё вокруг него интересует в большей мере философов и тех разработчиков, кто работает над сильным ИИ.
Вопрос - какие экспертные системы используются сейчас? Переводчики Abby & google это ai?
Сегодня используются тысячи разных экспертных систем. В основном в рамках систем поддержки принятия решений (СППР) в различных ведомствах. В качестве примера могу привести СППР, которую разрабатывал сам для МЧС России. В её составе есть экспертная система (ЭС), которая предназначена для распознавания неизвестных веществ вне лаборатории. Даже более, сегодня всё ещё используются ЭС, разработанные в 1980-х годах XX века. Ну та же DENDRAL, самая первая в истории ЭС, она до сих пор используется.
Что касается переводчиков. Да, это технологии ИИ. Просто есть такая парадоксальная штука — когда технологии плотно входят в жизнь и становятся обыденными, люди не склонны видеть в них что-то необычное или очень научное. Автоматические переводчики стали обыденностью, но то, что лежит у них под капотом, — это, вне всяких сомнений, технологии Искусственного Интеллекта.

1. Здравствуйте, можете более менее простыми словами объяснить метод имитации отжига?
В общем, так. Представьте метод градиентного спуска, который в классическом варианте часто залипает в локальных экстремумах, но теперь следующая точка выбирается случайно в некоторой окрестности текущей точки, а переход в неё осуществляется в соответствии с некоторой условной вероятностью.
2. А для чего в принципе используется метод имитации отжига? для поиска экстремумов тоже?
Да, это метод оптимизации. Но он тоже, конечно, не гарантирует попадания в глобальный.
1. добрый день, что такое весовые коэффициенты нейросети?
Каждой связи между нейронами нейросети приписан некоторый весовой коэффициент, на который умножается значение, передаваемое по этой связи. Обучение нейросети как раз и заключается в подстройке значений этих весовых коэффициентов.
2. то есть информация, которая пройдёт через эту связь станет более значительной?
Или наоборот обнулится. Коэффициент же может получить значение 0.
Я не совсем понимаю что именно даёт увеличение скрытых слоёв инс?
И отличаются ли как-то нейроны, находящие на входе от нейронов в скрытых слоях , например?
Само по себе увеличение количества слоёв в ИНС не даёт ничего. Более того, для некоторых типов ИНС существует такой феномен, как «затухание», когда пр обучении при помощи метода обратного распространения ошибки весовые коэффициенты на межнейронных связях у самых первых слоёв практически не изменяются, так как ошибка не доходит до этих слоёв. Так что всё дело в архитектуре нейронной сети в первую очередь и в типе используемых нейронов во вторую. Задача диктует выбор архитектуры, которая частично определяет тип нейронов, а дальше уже сам исследователь различными методами пытается определить, сколько скрытых слоёв нейросеть должна содержать. То есть нельзя сказать, что вот мы сейчас возьмём и добавим пару сотен слоёв, и тогда о-го-го! Нет, для каждой задачи и каждой архитектуры, фактически, это индивидуальный подбор, и задача эта больше творческая.

Что касается типов нейронов, то тут опять архитектура ИНС диктует, какие нейроны на каких слоях должны быть. Разных типов нейронов придумано довольно много. И они используются в разных типах ИНС. Например, в перцептроне три типа нейронов — по одному на каждый тип слоя. В свёрточной сети на входных слоях могут стоять обычные фильтрующие нейроны, а на скрытых слоях — с памятью. В других архитектурах могут использоваться нейроны с реципрокными и обратными связями. Опять же диктует задача.
Какие есть теории касательно эмоций у ИИ? Могут ли они у него появиться и зачем-то ему быть нужны?
Благодарю за отличный вопрос! Чтобы ответить на него, нужно обратиться к самому механизму эмоций у человека. Как предполагается, они, эмоции, возникли как механизм регуляции ещё у тех организмов, у которых нет нервной системы и, соответственно, целенаправленной передачи сигналов. Протоэмоциями можно назвать хемотаксис у бактерий (то есть движение по градиентам концентраций определённых веществ, которое нами, людьми, погрязшими в антропоморфном видении мира, воспринимается как намеренное приближение к пище или убегание от врага). То же самое можно сказать про растения, низших животных и всех остальных вплоть до человека. То есть эмоция — это общесистемный химический ответ организма на некоторый стимул извне или изнутри. Благодаря эмоциям организм может более или менее быстро реагировать на разные стимулы. Если рассмотреть человека, то у него эмоциональные процессы накладываются на возможность их осознания, и отсюда возникает весь спектр сложных эмоциональных комплексов, включающих вторичные эмоции и эмоции высших порядков. Ну, например, человек в ответ на какое-то событие резко разозлился, потом осознал это и почувствовал стыд. В итоге у него в крови повысились концентрации нескольких гормонов, которые сознанием воспринимаются как соответствующие эмоции. Другими словами, последовательность эволюции такая: хемотаксис => эмоции => нервная система => сознание. Ну и теперь понятно про ИИ. Если он будет изначально рациональным и сознательным, то никакие эмоции ему будут не нужны. Холодный разум, всегда принимающий рациональное взвешенное решение. Само собой разумеется, что сейчас речь идёт о Сильном ИИ. Слабому эмоции ни к чему в принципе. Но если его разработчики так его запрограммируют, то он будет симулировать эмоциональный ответ, например, для более эмпатичного общения с людьми. Кстати, это же может делать и Сильный ИИ, но уже по собственной воле и только для того, чтобы спуститься на наш примитивный уровень.
1. я начала смотреть сегодняшнее видео и тут поняла, что видимо не до конца осознала интуитивный подход из вчерашнего, а именно: я увидела по каким критериям проходит тест Тьюринга и что как такового описания к подходу ИИ не оставил :). но суть самого подхода "интуитивного" не очень осознала, это больше похоже на подход к валидации системы на то, относится ли она к ИИ или нет
Дам комментарий пока здесь небольшая заминка. Вы абсолютно точно уловили суть. Интуитивный подход сегодня — это, скорее, про валидацию. Как я говорил на лекции, мы каким-то интуитивным образом можем понимать, разумное ли существо перед нами или нет. Тем не менее, в чём тут дело? Когда учёные только начали работу над ИИ-системами, ещё практически не было никаких теоретических основ для работы. А потому разработчики как бы на собственной интуиции делали первые искусственные интеллектуальные системы. Только потом начались теоретические проработки. Сегодня теория на высоте, а потому интуитивный подход сегодня не используется в принципе.
2. я поняла, но по сути когда даже первые разработчики это делали, они все равно фактичекую систему проверяли интуитивно, подходит или нет, но когда они ее разрабатывали все равно подход к созданию был какой-то другой ). или имеется в виду что они интуитивно определяли направлняи развития системы, без какого-то системного подхода. системного в смысле общего определения "система" , а не конкретно информационной , а то тавтология получилась. системного в смысле общего определения "система" , а не конкретно информационной , а то тавтология получилась :)
Скорее, второе. Это как взять человека, который только-только начинает программировать. Он начинает писать какие-то учебные программы, экспериментирует, алгоритмов особо не знает. Ну вот, к примеру, уверен, что многие алгоритмы сортировки были многократно переизобретены теми, кто не читал монументальный труд Д. Кнута. Ну и тут то же самое — пионеры ИИ «тыкались» в разные стороны, что-то находили, что-то было ошибочным. Потом уже, когда начались подтягиваться научные коллективы, разработка стала принимать более системный характер.
Как это получать новые знания механически? что это за теория? Я понимаю, что в процессе медитации и остановки деятельности ума, который на самом деле нам враг, можно подключиться к источнику абсолюта и черпать оттуда знания. Но а это что за механический процесс?
Например, это может быть формальный вывод и доказательство новых теорем в рамках какой-либо формальной системы. Новая теорема —это новое знание, которое добыто «механически». Или, другое пример, искусственную систему можно запрограммировать для получения результатов неких экспериментов, которые она постоянно ставит. Эта система будет получать данные, фильтровать их и даже как-то интерпретировать, и в этом случае через процесс интерпретации из данных будут получится знания. А дальше знания уже применяются разумным существом или же системой, основанной на знаниях (экспертной системой).
Интересно зачем нужна была разностная машина, какие вычисления она реально производила , какую функцию она выполняла?
Разностная машина проектировалась как универсальный аппроксиматор функций многочленами и вычисления конечных разностей [в нотации LaTeX: \Delta (x_k) = f(x_{k + 1}) - f(x_k) ]. Фактически, она могла бы позволить вычислять приближённые значения логарифмов и тригонометрических функций, что имело бы прямое прикладное значение в мореплавании, инженерном деле и везде, где требовались расчёты инженерного характера.
Не очень понятно, почему парадокс Рассела помешал созданию стройной математической системы по получению знаний? Также очень интересно, возможна ли вообще подобная система, если учитывать, что для нового "знания" нужна идея, а не просто математический анализ данных?
Рассел и другие последователи Гильберта пытались сделать некую систему, которая позволила бы «механически» получать новые математические знания и, в итоге, просто, перебрав и все, построить окончательное и фундаментальное здание науки. Но Рассел первый же вбил гвоздь в крышку гроба наивной теории множеств Канторы со своим парадоксом, а за ним уже и Гёдель доказал, что окончательной и полной системы научного знания мы получить не сможем никогда. Из этого следует интересный вывод — те, кто «общается» с миром чистых платонических идей, всегда будут находить что-то новое и постоянно достраивать здание науки.

Что касается теоремы Гёделя о неполноте. то она гласит, что любая достаточно выразительная формальная система, в которой есть возможность выразить базовую арифметику (числа и операцию сложения) либо противоречива, либо неполна. Противоречивость обозначает то, что в системе можно доказать некую теорему и её отрицание. Неполнота обозначает невозможность в системе доказать некую теорему, которая истинна и действительно является теоремой. В общем, следствие этой теоремы в том, что наша обычная арифметика является неполной системой, и наполнить её невозможно (это тоже доказано Гёделем).

В общем, всё это значит, что мы не сможем построить окончательное здание знания, фундаментальное и завершенное. Знания будут добываться всегда. И всегда будет появляться возможность добавить новые знания. Что бы нового мы не открыли.
Роман, Вы слегка искусственно провоцируете дискуссию или действительно Восточная цивилизация не внесла ничего в развитие математики, возможно приведшее к прорыву западной математической мысли 20 в?
Несомненно, что восточная научная мысль дала какие-то отдельные всплески (типа всем известных нуля и арабских цифр для десятичной записи). Но если рассматривать в целом весь массив философии и науки, то вне всякого сомнения колыбелью научного мировоззрения является античный мир и западная цивилизация, как наследующая ему. Восточные культуры более созерцательны, западные — рациональны.
И как возможно создать язык программирования, не имея машины? Хотя, возможно, мы приходим к проблеме курицы - яйца. С другой стороны, есть гравиационные волны Эйнштейна, обнаруженные через 100 лет после их описания.
Тьюринг сделал это. Он построил умозрительную модель (машину Тьюринга), после чего, фактически, описал в математических терминах универсальный язык программирования. Отсюда появился термин — «Тьюринг-полный язык программирования», который обозначает, что на этом языке можно реализовать любую функцию, которую можно вычислить (не все функции можно вычислить). То же самое сделал Алонзо Чёрч — не имея компьютера, он описал математическую нотацию (лямбда-исчисление), которое как раз представляет собой базовый Тьюринг-полный язык программирования. Все современные языки программирования высоких уровней представляют собой всего лишь «синтаксический сахар», обёртывающий математические записи лямбда-исчисления.
...Есть ли что-то более продвинутое для распознавания ИИ, обладающего самосознанием? Или что бы мы ни делали, вопрос этот переходит в разряд философии и является нерешаемым? Да, тест Тюринга плох и не особо работает. Есть ли что-то лучше? Или задача вообще не выполнима и относится к философии: "что же такое разумное существоооо?"?
Да. Потому что против любой процедуры, какую бы кто-либо не предложил, можно привести примеры её провала в двух аспектах. Во-первых, можно привести пример, когда она скажет «разумно» на неразумное. Во-вторых, пример ответа «неразумно» на разумное. Мне кажется, что это следствие так называемой «Сложной проблемы сознания».
Насколько я понял в роевых алгоритмах роль матки отсутствует, хотя в природе матка играет основополагающую роль в том же улье. Если погибает матка, то и погибает улей. Таким образом, если дальше развивать идею суперорганизма, то необходимо вводить роль матки, тогда интеллект системы очень сильно возрастет.
Смотри, пара примеров. Рассмотрим автономные автомобили:
1) Центральная система управления (ЦСУ), которая за каждый автомобиль решает, по какому маршруту ему ехать, чтобы довезти пассажира или груз. Это централизованная система с иерархией.
2) Есть зональные центры, которые могут координировать свои действия на своём уровне, не эскалируя на ЦСУ. И они могут воздействовать на автономные автомобили. При этом последние обладают определённой степенью свободы принятия решений.
3) Автономные автомобили полностью самостоятельно принимают решения и ездят, общаясь друг с другом и элементами инфраструктуры — это децентрализованная схема. Она может быть очень адаптивной, но схемы с ЦСУ обычно более эффективны.

Открыл статью в википедии про "вторую сигнальную систему". Очень сложный язык статьи и отсутствие этой станички на других языках (там только 3 языка бывшего СССР) предостерегает меня что это понятие не очень признано в мире. Что-то из псевдонауки. Это так? Или просто ссылки в википедии не очень хорошо проставлены?
Рита думает что это вообще нельзя категоризировать в науку\псевдонауку, т.к. это просто понятие, введенное для описания каких-то процессов. А иностранцы не знают просто потому что, кроме работ по бехавиоризму, с Павловым особо не знакомы.
Понятия ПСС и ВСС введены Павловым, но потом академической наукой в СССР отодвинуты. Их не использовали здесь, а там их и не знали. Но мне кажется, что эти термины термины хорошо отражают суть процессов.
1) ПСС — мы получаем ощущения через сенсоры и реагируем на них здесь и сейчас или складываем в память, но там они лежат тоже в виде ощущений разных модальностей или даже смешано.
2) ВСС — мы получаем ощущения и обрабатываем их при помощи символов. Абстрактные символы сами по себе становятся предметом внутренних переживаний и осмысленной уже без привязки к непосредственным ощущениям органов чувств.
Пример. Собака видит дм своего хозяина. Её ощущения на сетчатке глаза передаются в головной мозг, где рождают ассоциации типа «безопасно», «тепло», «радость» и т. п. первичные эмоции. Человек видит свой дом. У него не только первичные эмоции, как у собаки, появляются, но и куча опосредованной абстракции символом «дом».
В противоположность этому. Собака видит какой-то чужой дом далеко от своего (например, в другой деревне), не похожий по внешнему виду на дом хозяина совершенно. Ну некая форма на сетчатке не вызывает у неё абсолютно никакого интереса. Человек видит тот же дом и, например, если он давно не был у себя дома, у него в голове рождается такое ощущение, как ностальгия и грусть. Это вторичные эмоции, связанные с абстрактным символом «дом», а не с корректной постройкой, которую он видит здесь и сейчас, и которая у собаки никаких эмоций не вызывает.

Все три метода метода разработки ИИ (интуитивный подход, работающий с языком, знаниям и выводами, символьный подход, работающий по принципу сбора символов - слов, мыслей, ассоциаций, и логический подход, работающий с размышлениями и выводами знаний в рамках человеческого поведения) эти все метода чистый подход, нисходящий от 5 психических функций человека?
Да, все три метода — интуитивный, символьный и логический — это «представители» нисходящей парадигмы, если говорить упрощённо. Но на самом деле, должна быть таблица, столбцы которой обозначены парадигмами, а строки — подходами, а в ячейках перечислены конкретные методы и технологии Искусственного Интеллекта. Мы уже озаботились созданием такой таблицы и, вероятно, к концу курса Вы её получите.
А какую вы сами видите опасность? Скорее всего при переходе от слабого ии к сильному ии, имхо.
Я вижу наибольшую опасность технологий Искусственного Интеллекта в том, что они попадут не в те руки. Не технологии вредят, а те, кто их используют. Автомобиль — это и средство передвижения и перемещения грузов, и техническое средство повышенной опасности, из-за которого гибнет огромное количество людей. Оружие — это и инструмент добычи пропитания, и средство ведения войны. Любая технология нечистыми на руку людьми может быть обращена во вред. Ну это, конечно, что касается слабого ИИ. Если рассматривать сильный, то тут я прогнозировать не готов.
По сути созданная нейронная сеть тоже должна работать с какими-то символами. Она же что то получает на вход, что-то делает и потом передает дальше. По сути, экспертная система тоже получает что-то на вход, и тоже что-то выдает. Но при этом мы разносим их в разные подходы. ЭС — чистый, ИНС — грязный. Хотя они обе запрограммированы человеком , принимают что-то на вход и потом что-то выдают.
ЭС: знания представлены в явном виде при помощи продукционных правил или семантических сетей, вывод на знаниях осуществляется при помощи формализованной процедуры, полученный результат объясним.
Это чистый подход.
ИНС: знания как-то там сами появились в весовых коэффициентах связей между нейронами в процессе обучения, вывод результата осуществляется при помощи прогона входных значений через сеть до выходного слоя, полученный результат объяснить сложно. Это грязный подход.
Картинка => ИНС => Распознанный образ
Факт => ЭС => Рекомендация
Но если подняться на ступеньку выше по лестнице абстрагирования, то всё суть одно и то же :).

я примерно понял, как происходит обучение ИНС на нормализованных данных (т.е когда есть модель котировки Акции, и на вход ИНС подаются значения многомерного вектора - цена покупки, цена продажи, частота покупок, и др, при этом кол-во входов ИНС соответствует длине вектора - и по результату ИНС определяет, принадлежит ли вектор классу «рост», или классу «падение»). А вот какого типа ИНС умеют находить закономерности между разнородными событиями? Я точно знаю, что есть системы мониторинга, которые по событиям Event log базы данных делают вывод, что в логах веб-сервера скоро появятся определенные события, но никак не могу понять, что же конкретно подаётся на вход ИНС, ведь форматы событий и логов полностью отличаются, да и нет «модели» и векторов, как в первом примере.
Обычно вход ИНС как-то формализуют. Ведь события event log как-то тоже классифицированы? Там не бесконечное разнообразие, ведь так? Ну вот значения классификаторов в том или ином виде и можно подавать на вход нейронам первого слоя. Ведь весь формализм ИНС заключается в преобразовании входного вектора в выходной посредством его умножения на матрицу — всё, другого там на высшем уровне абстракции нет. Другими словами, при постановке задачи для ИНС нам надо каким-то понятным для нас образом закодировать вход и выход в виде векторов, а потом обучить ИНС так, чтобы она настроила матрицу.
Все агенты имеют какую-то маленькую задачу по оптимизации решения одного вопроса? И при ее решении в пределах одного агента это информация передается другому агенту? И так по цепочке, пока не будет выведен самый оптимальный и рациональный вариант решения?
В рамках агентного подхода не накладывается каких-либо ограничений на агентов. Это в общем виде некоторая кибернетическая машина, решающая задачу оптимизации. В процессе этого решения агенты могут общаться друг с другом и обмениваться какой-либо информацией. Ну то есть нет жёсткого алгоритма типа того, который описали Вы. В качестве примера могу привести решение задачи по предоставлению приоритетного проезда общественному транспорту на перекрёстке при помощи агентного подхода. Подвижные единицы — это агенты. Контроллер светофора — это агент. Представьте, что к перекрёстку с конкурирующих направлению подъезжают два автобуса. Они входят в зону доступа контроллера светофора и запрашивают разрешения: один на продление зелёной фазы для себя, а второй на переключение светофора для себя. Контроллер отвечает каждому, что есть конфликт интересов. Тогда они начинают торговаться. Например, первый едет без отставания от графика и в нём находится десяток пассажиров, тогда как второй немного отстаёт от графика, и при этом в нём три десятка пассажиров. Тогда первый говорит контроллеру: «Я готов заплатить за продление фазы 10 условных единиц», а второй говорит: «Я готов заплатить за переключение фазы 60 условных единиц». Контроллер светофора открывает «торги», во время которых автобусы быстро находят равновесие в своих предложениях, и второй автобус получает приоритет — после того как они договорились, контроллер переключает фазу даже если она должна была ещё гореть для первого автобуса. Ну вот как-то так.
Пока реализованы только системы слабого ии. Так?
Сегодня у нас есть только системы слабого ИИ, естественно. Всё то, что сегодня называется словами «Искусственный Интеллект» — это только слабы ИИ и ничего больше. К реализации сильного ИИ никто ещё даже и не подступился, хотя, конечно, такие попытки декларируются. Тем не менее, нельзя отвергать гипотезу о том, что ИскИн (сильный ИИ) могу самозародиться где-то в недрах Интернета, и сейчас он просто от нас скрывается. Либо не скрывается, а общается с нами на многочисленных форумах, просто мы не можем выявить то, что с нами общается ИскИн. Представьте на минутку, что кто-то в сети может влиять на общественное мнение на мировом уровне, манипулируя им в своих интересах, причём скрываясь под массой личин и масок, общаясь на любом языке и имея возможность пародировать любой стиль общения...
И ещё, если ии рационален, откуда берётся сопереживание? Это или часть программы и эмуляция чувства или как? Вопрос, скорее философский, что человек хочет получить от ии. Имхо
Да, ИИ рационален. Что же касается сопереживания, то опять рассматриваем два типа. Во-первых, в слабом ИИ сопереживание, эмпатия, любые эмоции могут быть запрограммированы для того, чтобы более тонко настраиваться на пользователя. Например, это может быть ИИ в секс-кукле, который будет генерировать эмоциональный ответ в том виде, в каком он ожидается человеком, взаимодействующим с этой куклой. Или робот-ведущий на телевидении, который читает новости. Мимика его лица, нотки в его голосе должны в той или иной мере выражать отношение к декламируемым новостям. Это вполне можно так или иначе запрограммировать. Во-вторых, сильный ИскИн может показывать любой вид человеческих чувств и эмоций для достижения своих целей, которые поставлены рационально и рационально же достигаются. Этим он пугает алармистов — абсолютно рациональное разумное существо, которое может имитировать иррациональное поведение для достижения своих собственных целей. Сомневаюсь, что это можно как-то предотвратить, но произойдёт ли именно так, как я говорю, — прогнозировать сложно.
Как в физическом виде выглядит сейчас ИИ? Как его можно пощупать, посмотреть? Что он из себя представляет?
В физическом мире Искусственный Интеллект проявляется через любые устройства, на которых могут исполняться его алгоритмы: обычные компьютеры, суперкомпьютеры, бортовые компьютеры автономных автомобилей, одноранговые сети различных устройств с автономным поведением, роботы и роботизированные линии.
По первому видео интересует следующее: насколько корректно говорить, что искусственный интеллект бывает 2-х типов: реализованный в виде нейронной сети, и реализованный в виде экспертной Системы? Или есть более подходящие термины?
Фактически, да. Нейросети и Экспертные системы — это две наиболее ярких технологии для двух парадигм ИИ: восходящей и нисходящей соответственно. Поэтому их часто олицетворяют. Хотя в рамках и нисходящей, и восходящей парадигмы ИИ есть и другие технологии. Но о них мы поговорим на следующих занятиях — дождитесь, пожалуйста, послезавтра, когда мы будем эти две парадигмы разбирать более подробно.
Вы в одном ответе говорите: ИИ слабый искусственный интеллект, искин - сильный искусственный интеллект, как-то так. А в другом ответе: в общем, как итог — мы (или ИскИн) никогда не сможем .... Как расшифровывается ИскИн? И это мы (естественный интеллект) или же ИИ?
Немного терминологии:
* ИИ = Слабый Искусственный Интеллект (алгоритм, решающий задачи)
* ИскИн = Сильный Искусственный Интеллект (самоосознающее существо)
* Мы = Естественный Интеллект (люди)

Добрый день. У меня такой вопрос. Насколько я понимаю, одно из ключевых отличий работы мозга от нейронных сетей - это сильная параллельность вычислений. Т.е. даже на суперкомпьютерах и графических картах близко нельзя воспроизвести такую параллельность, а в мозгу она натурально получается. Были ли попытки сделать архитектуру сильного (или необязательно сильного) ИИ на основе железа, каких-нибудь микропроцессоров, даже скорее не микропроцессоров, а чего-то более простого, типа сети из огромного числа сумматоров? Есть какие-нибудь современные попытки/исследования в этом ключе?
Здравствуйте. Да, Вы абсолютно правы — в головном мозге одновременно и параллельно работают 90 миллиардов маленьких компьютеров. Я не стал бы назвать их «сумматорами», поскольку биологический нейрон намного более сложен, чем его искусственная модель, которая просто складывает входы, перемножив их на веса. Естественный нейрон может одновременно возбуждаться и тормозиться разными нейромедиаторами, может сам испускать в межклеточное пространство свои нейромедиаторы, воздействуя не только на следующие нейроны, к которым присоединены его аксоны, но и действуя аутокринно на самого себя и паракринно на соседние. Скорость действия электрических и химических сигналов различна. В общем, это сложная штука, которую, тем не менее, тоже уже моделируют (например, LSTM-нейроны хоть как-то могут это всё моделировать, в том числе и аутокринные связи). Но проблема в огромном количестве необходимых устройств — 90 миллиардов маленьких компьютеров не так-то просто сделать, и для их питания потребуется АЭС, а для теплоотведения что-то похоже. Я помню, что читал где-то об экспериментах с такими архитектур небольшого объёма, но в них получались обычные нейросети, мало чем отличался от стандартных архитектур. По-моему, это как раз были эксперименты с нервной системой червя Caernohabditis elegans, у которого всего 302 нейрона, и чей коннектом полностью описан. Но я могу ошибаться.
Нисходящей она называется потому, что из 12 формул превращается в 6, из 6 в 3, из 3 в какой-то вывод? Или почему нисходящая? Потому что выводы делаются по пирамиде вниз?
Нисходящей эта парадигма называется потому, что она идёт от моделирования высших психических функций. То есть она сверху пытается смоделировать интеллектуальные функции человека.
Экспертные системы не работают на нейронных сетях, раз они образец чистого подхода?
ЭС работают на продукционных правилах или семантических сетях. Но факты для правил или значения входных узлов для семсетей могут собирать нейросети. Так может работать гибридный подход, который мы будем изучать в 7-ом занятии. Гибридный — это одновременное использование техник чистого и грязного подхода. Гибридный объединяет обе парадигмы.
Грязный ИИ работает с базовыми элементами интеллекта и через это пытается дойти до искусственного сознания? А физически, если не через формулы, как это происходит?
Грязный ИИ — это, в основном, искусственные нейронные сети (ИНС). ИНС состоит из искусственных нейронов, каждый из которых — маленький компьютер или, даже, калькулятор, который каждый свой вход умножает на весовой коэффициент этого входа, а потом полученные произведения складывает, и если результирующая сумма превышает порог активации, то этот нейрон на выходе имеет значение 1, которое потом попадает в следующие нейроны. Вот такую ИНС можно обучить, при этом обучение заключается в том, что у неё настраиваются весовые коэффициенты на каждой связи между нейронами. Есть несколько методов обучения, один из самых распространённых — обратное распространение ошибки. Как только ИНС обучится, она может решать определённые задачи. Например, распознавать образы, в том числе и такие, каких не было в обучающей выборке. Вот это самая откровенная реализация грязного подхода.
Не поняла вопрос в тесте про человекомесяцев. Где это было написано?
Джон МакКарти говорил, что ему для создания ИИ потребуется работа 10 человек в течение 2 месяцев. Это 20 человекомесяцев.
Все три метода метода разработки ИИ (интуитивный подход, работающий с языком, знаниям и выводами, символьный подход, работающий по принципу сбора символов - слов, мыслей, ассоциаций, и логический подход, работающий с размышлениями и выводами знаний в рамках человеческого поведения) эти все метода чистый подход, нисходящий от 5 психических функций человека?
Да, все три метода — интуитивный, символьный и логический — это «представители» нисходящей парадигмы, если говорить упрощённо. Но на самом деле, должна быть таблица, столбцы которой обозначены парадигмами, а строки — подходами, а в ячейках перечислены конкретные методы и технологии Искусственного Интеллекта. Мы уже озаботились созданием такой таблицы и, вероятно, к концу курса Вы её получите.
Очень интересно конкретику узнать, про Джейн. Получается, что ждем блоков-модулей, которые будут выполнять определенные действия. И потом комбинируем их для собственных целей?
Джейн — система с довольно сложной архитектурой, которая использует и символьную математику, и нейросети. Кроме того, у неё база знаний устроена таким образом, что на ней можно автоматически строить деревья решений для диагностики и продукции для контроля применения лекарственных препаратов. Также там используются семантические сети на верхнем уровне, а на самом нижнем — сценарии на специальном DSL. В общем, всё очень сложно, и некоторые вещи я вообще раскрывать не готов, поскольку это наше ноу-хау. Но могу поделиться презентацией проекта.
...Или каждого чат-бота нужно учить? Но если учить, то дело опять в стандартных наборах данных (типа сета на 100 000 картинок)
Чат-боты могут быть устроены двояко:
1) На основе формальных сценариев (так, к примеру, устроен чат-бот Джейн).
2) На основе анализа естественного языка.
Второй подход также может быть разделён на два варианта — анализ при помощи формальных грамматик и анализ при помощи нейросетей. Все три подхода используются очень активно и повсеместно. Более того, они комбинируются (и мы будем внедрять в следующую версию своего чат-бота элементы анализа ЕЯ). Так что обучать нужно только тех, кто использует нейросетевой подход.

Тоже самое с историями болезней - почему нельзя выучить ИИ диагноста - запустив туда сотню миллионов историй болезней?
Скорее всего потому, что нет формализованных сотен миллионов историй болезней. IBM Watson пытается сделать что-то подобное, и ему скормили какие-то сотни тысяч анамнезов по раку чего-то там. Но результатов пока не видно. Мне сложно представить архитектуру нейросети, которая смогла бы поглотит сотни миллионов анамнезов в разных областях медицинских знаний, как-то их дифференцировать и потом использовать. Но я думаю, что работы в этом направлении активно ведётся. Не то, что будет универсальный ИИ-диагност, но в отдельных областях медицины это вполне возможно.
Ну вот опять возвращаясь к Джейн — в её базе знаний есть описания 70 эпилептических синдромов. При помощи нечёткой математике и деревьев решений она может сопоставить клиническую картину пациента с каждым из 70 описаний, после чего выдать ранжированный список с рекомендациями. Но перед этим ей необходимо сказать простую вещь: «Это пациент с эпилепсией», после чего она подключит неврологический картридж и выполнит диагностику.

По поводу систем ии какие сейчас наиболее известны по тематике медицины и crm.
По медицине есть много решений, где так или иначе используются технологии ИИ. Ну далеко ходить не надо: моя собственная система Джейн — это ИИ-система для персональной медицины. Обычно весь Медтех делится на:
1) распознавание образов в снимках МРТ, рентгенографии и прочем подобном, распознавание и предсказание по кривым ЭЭГ, ЭКГ и т. д.;
2) диагностика на деревьях решений;
3) чат-боты для сбора информации;
4) анализ больших данных.
Crm с тз реализации функционала - колл-центр - понятно чат-бот; а введение данных, оценка клиентов, принятие решений - ?
Что касается CRM, то тут Вы абсолютно правильно сказали про чат-боты в качестве первой линии поддержки, и опять же у нас в портфеле есть пример такого ЧБ. Опять же краулеры для сбора и обогащения информации о клиентах по всем цифровым следам, которые он оставляет. Анализ больших данных в Фейсбуке и других социальных сетях, когда бигдата пользователей — это новая нефть, уже стал притчей во языцех.
Роман, я тут пересматриваю старые материалы с новым пониманием) и наткнулась на такой вопрос. Как разделить сильный ИИ от слабого - более менее понятно, но есть ли какая-то тонкая грань между скажем "обычной системой" и системой ИИ?
Есть такой странный и парадоксальный феномен. Новая неизвестная технология, которая кажется доступной только человеческому разуму, всегда в самом начале своего зарождения называется «ИИ». Ну вот представьте себя в 80-ых на улице Москвы, и вдруг Вам показывают смартфон и картой, где есть геопозиционирование и в режиме реального времени показываются пробки. И можно прямо сразу найти, где поесть и попить газировки. И наводите фото на магазин, а Вам сразу карточку этого магазина со всей необходимой информацией для покупателя. Это ИИ? На сегодняшнее время — вообще ни разу. А тогда бы это выглядело как разумное существо в маленькой коробочке, однозначно. То есть грань очень тонкая и проходит по нашему собственному восприятию — как только какая-то штука перестаёт быть диковинкой, она перестаёт быть ИИ-системой. Просто надо понимать, что есть определённые технологии ИИ, при использовании которых систему можно считать интеллектуальной. Это, можно сказать, формальное понимание.