Подпишитесь

Исследователь проверяет, есть ли у ИИ свой собственный разум

Большинство людей ежедневно сталкиваются с искусственным интеллектом (ИИ) в своей личной и профессиональной жизни.

Исследователь проверяет, есть ли у ИИ свой собственный разум

Не задумываясь об этом, люди просят Alexa добавить газировку в список покупок, ездят с Google Maps и добавляют фильтры в Snapchat - все это примеры использования ИИ. Но исследователь из Университета науки и технологии штата Миссури изучает то, что считается доказательством того, что у ИИ есть "разум", который покажет, когда человек воспринимает действия ИИ как морально неверные.

Есть ли "разум" у ИИ

Доктор Даниэль Шанк (Daniel Shank), доцент факультета психологии Миссурийского научно-технического университета, опирается на теорию о том, что если люди воспринимают сущности как имеющие "разум", то это мировоззрение будет определять, какие моральные права и ответственность они приписывают этому. Его исследования покажут, когда человек воспринимает действия искусственного интеллекта как морально неверные и, возможно, послужат снижению уровня отторжения интеллектуальных устройств и их усовершенствованию.

Подписывайтесь на наш youtube канал!

"Я хочу понять социальные взаимодействия, при которых люди воспринимают машину как разум, и ситуации, в которых они воспринимают ее как морального субъекта или жертву", - говорит Шэнк.

Исследователь проверяет, есть ли у ИИ свой собственный разум

В своей работе по поведенческой науке Шэнк применяет теорию к таким современным машинам, как устройства с искусственным интеллектом и роботы.

"Время, когда мы действительно воспринимаем разум, стоящий за машиной, говорит нам что-то о технологиях, их возможностях и поведении, но в конечном итоге они раскрывают больше о нас как о людях", - объясняет Шэнк. "В этих встречах мы эмоционально переживаем разрыв между нечеловеческими технологиями и разумом, по существу чувствуя свой путь к машинному разуму".

Шэнк находится в середине трехлетнего проекта, финансируемого Исследовательским Офисом Армии (ARO), чтобы лучше понять восприятие людьми ИИ. ARO является элементом армейской исследовательской лаборатории Командования по развитию боевых возможностей армии США.

"Работа доктора Шанка создает новое понимание взаимодействия человека и субъекта, систематически интегрируя давние социально-психологические теории познания и эмоций с исследованиями по взаимодействию человека и субъекта", - говорит доктор Лиза Тройер, менеджер программ по социальным и поведенческим наукам в ARO. "Его исследования уже генерируют научные представления о роли нравственных представлений об автономных субъектах и о том, как эти представления влияют на эффективное взаимодействие человека и субъекта".

"Технологии, связанные с Интернетом, обученные работе с большим количеством данных и работающие на платформах социальных сетей, в настоящее время являются обычным явлением в нашей культуре", - говорит Шэнк. "Эти технологии, независимо от того, являются ли они настоящим искусственным интеллектом или нет, являются обычным делом в личной жизни людей, но не каждое использование этих технологий заставляет нас видеть в них разум".

Вопрос о том, можно ли отнести добродетель или порок к ИИ, по-прежнему зависит от того, готовы ли люди судить о машинах, как о обладании моральным характером. И по мере того, как продолжаются исследования в области этики и психологии искусственного интеллекта, рассматриваются новые темы, такие как права искусственного интеллекта и мораль искусственного интеллекта. опубликовано econet.ru по материалам techxplore.com

Подписывайтесь на наш канал Яндекс Дзен!

P.S. И помните, всего лишь изменяя свое потребление - мы вместе изменяем мир! © econet

Источник: https://econet.ru/

Понравилась статья? Напишите свое мнение в комментариях.
Подпишитесь на наш ФБ:
, чтобы видеть ЛУЧШИЕ материалы у себя в ленте!
Комментарии (Всего: 0)

    Добавить комментарий

    Мы должны стремиться не к тому, чтобы нас всякий понимал, а к тому, чтобы нас нельзя было не понять. Вергилий
    Что-то интересное