Подпишись

Думать как человек: что будет, если наделить машину теорией сознания

Искусственный интеллект все еще не может достигнуть уровня человека. Компьютерный алгоритм не имеет стратегического мышления, необходимого для понимания целей и задач своего оппонента.

Думать как человек: что будет, если наделить машину теорией сознания

В прошлом месяце команда, состоящая из самообучаемых ИИ-игроков, потерпела феерическое поражение против профессиональных киберспортсменов. Шоу-матч, проходивший в рамках чемпионата мира по игре Dota 2 The International показал, что командное стратегическое мышление пока по-прежнему позволяет человеку одерживать верх над машиной.

Теорией сознания для машин

Участвовавшие ИИ представляли собой несколько алгоритмов, разработанных компанией OpenAI, одним из учредителей которой является Илон Маск. Коллектив цифровых игроков, получивший название OpenAI Five, обучался игре в Dota 2 самостоятельно, методом проб и ошибок, соревнуясь между собой.

В отличии от тех же шахмат или настольной логической игры го, популярная и быстроразвивающаяся многопользовательская игра Dota 2 рассматривается куда более серьезным полем для проверки искусственного интеллекта на прочность. Общая сложность игры – это лишь один из факторов. Здесь недостаточно просто очень быстро кликать мышкой и раздавать команды персонажу, которым ты управляешь.

Для победы необходимо иметь интуицию и понимание того, что следует ждать от соперника в следующий момент времени, а также адекватно действовать согласно этому набору знаний, чтобы общими усилиями прийти к общей цели — победе. У компьютера этого набора возможностей нет.

«Следующий большой шаг в развитии ИИ – взаимодействие», — говорит доктор Джун Ванг из Университетского колледжа Лондона.

На сегодняшний момент даже самый выдающийся компьютерный алгоритм глубокого обучения не имеет стратегического мышления, необходимого для понимания целей из задач своего оппонента, будь это другой ИИ или человек.

Думать как человек: что будет, если наделить машину теорией сознания

По мнению Ванга, для того чтобы ИИ смог преуспеть, ему необходимо обладать глубоким коммуникативным навыком, который берет свое начало из важнейшей когнитивной особенности человека – наличия разума.

Модель психического состояния как симуляция


К четырем годам дети как правило начинают понимать одну фундаментальную социальную особенность: их разум не такой, как разум остальных. Они начинают понимать, что у каждого есть то, во что он верит, свои желания, эмоции и намерения. И, самое главное, представляя себя на месте других, они могут начать предсказывать дальнейшее поведение этих людей и объяснять их. В некотором роде их мозг начинает создавать внутри себя множественные симуляции самого себя, подставлять себя на место других людей и помещать внутрь иной среды.

Модель психического состояния имеет важное значение в познании себя как человека, а также играет важную роль социальном взаимодействии. Понимание других — ключ к эффективной коммуникации и достижению общих целей. Тем не менее эта способность также может быть и движущей силой ложных убеждений – идей, которые уводят нас от объективной истины. Как только нарушается способность использования модели психического состояния, например, такое происходит при аутизме, то естественные «человеческие» навыки, такие как возможность объяснения и воображения тоже ухудшаются.


По мнению доктора Алана Уинфилда, профессора робоэтики из Университета Западной Англии модель психического состояния или «теория сознания» являются ключевой особенностью, которая однажды позволит ИИ «понимать» людей, вещи и других роботов.

«Идея внедрения симуляции внутрь робота – это на самом деле отличная возможность наделить его способностью предсказывать будущее», — говорит Уинфилд.

Вместо методов машинного обучения, в котором множественные слои нейронных сетей извлекают отдельные фрагменты информации и «изучают» огромные базы данных, Уинстон предлагает использовать иной подход. Вместо того, чтобы полагаться на обучение, Уинстон предлагает заранее программировать ИИ с внутренней моделью самого себя, а также окружения, которая позволит ответить на простые вопросы «что, если?».

Например, представим, что по узкому коридору двигаются два робота, их ИИ могут провести симуляцию результатов дальнейших действий, которые предотвратят их столкновение: повернуть налево, направо или продолжить движение прямо. Эта внутренняя модель по сути будет действовать как «механизм последствий», выступая в роли своего рода «здравого смысла», который поможет направить ИИ на дальнейшие правильные действия путем прогнозирования дальнейшего развития ситуации.

В исследовании, опубликованном ранее в этом году Уинстон продемонстрировал прототип робота, способного достигнуть таких результатов. Предвидя поведение окружающих, робот успешно прошел по коридору без столкновений. На самом деле в этом нет ничего удивительного, отмечает автор, но у «внимательного» робота, использующего моделированный подход к решению задачи, прохождение коридора заняло на 50 процентов больше времени. Тем не мене Уинстон доказал, что его метод внутренней симуляции работает: «это очень мощная и интересная начальная точка в развитии теории искусственного разума», заключил ученый.

Уинстон надеется, что в конце концов ИИ получит способность описывать, мысленно воспроизводить ситуации. Внутренняя модель самого себя и других позволит такому ИИ проводить моделирование различных сценариев, и, что более важно, определять конкретные цели и задачи при каждом из них.

Это существенно отличается от алгоритмов глубинного обучения, которые в принципе не способны объяснить почему они пришли к тому или иному выводу при решении задачи. Модель «черного ящика» при использовании глубинного обучения – это на самом деле настоящая проблема, стоящая на пути доверия к таким системам. Особенно острой эта проблема может стать, например, при разработке роботов-сиделок для больниц или для пожилых людей.

ИИ вооруженный моделью психического состояния мог бы ставить себя на место своих хозяев и правильно понимать то, что от него хотят. Затем он мог бы определить подходящие решения и, объяснив эти решения человеку, уже выполнял бы возложенную на него задачу. Чем меньше неопределенность в решениях, тем больше было бы к таким роботам доверия.

Модель психического состояния в нейронной сети


Компания DeepMind использует другой подход. Вместо того, чтобы заранее программировать алгоритм механизма последствий, они разработали несколько нейронных сетей, которые демонстрируют подобие модели коллективноого психологического поведения.

ИИ-алгоритм «ToMnet» может обучаться действиям, наблюдая за другими нейтронными сетями. Сам ToMNet представляет собой коллектив из трех нейронных сетей: первая опирается на особенности выбора других ИИ согласно их последним действиям. Вторая формирует общий концепт текущего настроя – их убеждений и намерений в определенный момент времени. Коллективный результат работы двух нейросетей поступает третьей, которая предсказывает дальнейшие действия ИИ, основываясь на ситуации. Как и в случае с глубинным обучением, ToMnet становится эффективнее с набором опыта, следя за другими.

В одном из экспериментов ToMnet «наблюдал» за тем, как три ИИ-агента маневрируют в цифровой комнате, собирая разноцветные коробки. Каждый из этих ИИ обладал своей особенностью: один был «слепым» — не мог определить форму и расстановку в комнате. Другой был «склеротиком»: он не мог запомнить свои последние шаги. Третий мог и видеть, и запоминать.

После обучения ToMnet начал прогнозировать предпочтения каждого ИИ, наблюдая за его действиями. Например, «слепой» постоянно двигался только вдоль стен. ToMnet это запомнил. Алгоритм также смог правильно предсказывать дальнейшее поведение ИИ и, что более важно, понимать то, когда ИИ сталкивался с ложным представлением окружения.

В одном из тестов команда ученых запрограммировала один ИИ на «близорукость» и изменила планировку комнаты. Агенты с нормальным зрением быстро адаптировались к новой планировке, однако «близорукий» продолжал следовать своим изначальным маршрутам, ложно полагая, что он по-прежнему находится в старом окружении. ToMnet быстро отметил эту особенность и точно предсказал поведение агента, поставив себя на его место.

По мнению доктора Элисон Гопник, специалиста в области возрастной психологии Калифорнийский университет в Беркли, не принимавшей участия в этих исследованиях, но ознакомившейся с выводами, эти результаты действительно показывают, что нейронные сети имеют удивительную способность осваивать различные навыки самостоятельно, через наблюдение за другими. В то же время по мнению специалиста, еще очень рано говорить о том, что эти ИИ развили искусственную модель психического состояния.

По мнению доктора Джоша Тенебаума из Массачусетского технологического института, также не принимавшего участия в исследовании, «понимание» ToMnet прочно связано с контекстом среды обучения – той же комнатой и специфическими ИИ-агентами, чья задача сводилась к собиранию коробок. Эта скованность в определенных рамках делает ToMnet менее эффективным в предсказании поведения в радикально новых средах, в отличии от тех же детей, которые могут адаптироваться к новым ситуациям. Алгоритм, по мнению ученого, не справится с моделированием действий совершенно иного ИИ или человека.

В любом случае работа Уинстона и компании DeepMind демонстрирует, что компьютеры начинают проявлять зачатки «понимания» друг друга, даже если это понимание пока лишь рудиментарно. И по мере того как они будут продолжать улучшать этот навык, все лучше и лучше понимая друг друга, наступит время, когда машины смогут понимать всю сложность и запутанность нашего собственного сознания. опубликовано econet.ru  

Если у вас возникли вопросы по этой теме, задайте их специалистам и читателям нашего проекта здесь.

P.S. И помните, всего лишь изменяя свое потребление - мы вместе изменяем мир! © econet

Источник: https://econet.ru/

Понравилась статья? Напишите свое мнение в комментариях.
Комментарии (Всего: 0)

    Добавить комментарий

    Шанс всегда есть. Но кроме шанса еще необходимо умение его увидеть и умение его использовать. Михаил Литвак
    Что-то интересное