Мы говорим, что роботы восстанут. Что захватят мир, возьмут все под свой контроль. На протяжении десятилетий мы слышали эти предупреждения, и сегодня, в начале 21 века, число этих предупреждений только растет. Растет страх перед искусственным
Мы говорим, что роботы восстанут. Что захватят мир, возьмут все под свой контроль. На протяжении десятилетий мы слышали эти предупреждения, и сегодня, в начале 21 века, число этих предупреждений только растет. Растет страх перед искусственным интеллектом, который приведет к концу наш вид.
Такие сценарии не только нарасхват в Голливуде, но также все чаще находят сторонников в научном и философском поле. К примеру, Рэй Курцвейл писал, что экспоненциальный рост искусственного интеллекта приведет к технологической сингулярности, точке, когда машинный интеллект превзойдет человеческий. Некоторые видят в этом конец света, другие видят только возможности. Ник Бостром думает, что сверхинтеллект помог бы нам решить вопросы с болезнями, нищетой и уничтожением окружающей среды, равно как и улучшил нас самих.
Во вторник знаменитый ученый Стивен Хокинг вступил в ряды пророков сингулярности, точнее к пессимистичной их группе, так как заявил BBC, что «развитие полноценного искусственного интеллекта может означать конец человеческой расы». Он считает, что люди не смогут конкурировать с ИИ, который сможет перепрограммировать себя сам и достигнет уровня, намного превосходящего человеческий. Впрочем, Хокинг точно так же считает, что нам вообще не стоит пытаться связаться с инопланетянами, поскольку у них будет только одна цель: подчинить нас или вовсе уничтожить.
Проблема таких сценариев не в том, что они неизбежно ошибочны — кто может предсказывать будущее? — или в том, что не стоит верить сценариям научной фантастики. Последнее неизбежно, если вы хотите понять и оценить современные технологии и их влияние на нас в дальнейшем. Важно выложить на стол наши философские вопросы в таких сценариях и изучить наши страхи, чтобы выяснить, что для нас важнее всего.
Проблема исключительного внимания к искусственному интеллекту в контексте «конца света» и других фатальных сценариев в том, что оно отвлекает нас от других, более насущных и важных этических и социальных проблем, возникающих в связи с технологическими разработками в этих областях. К примеру, есть ли место приватности в мире информационных и коммуникационных технологий? Угрожают ли Google, Facebook и Apple свободе в мире технологий? Приведет ли дальнейшая автоматизация к сокращению рабочих мест? Могут ли новые финансовые технологии угрожать мировой экономике? Как мобильные устройства влияют на окружающую среду? (К чести Хокинга, он упоминал о приватности в интервью, но потом все равно заговорил о конце человеческого века).
Эти вопросы куда менее привлекательны, чем сверхинтеллект или конец человечества. Они не поднимают также вопросов об интеллекте или роботах; они о том, какое общество нам нужно и какой мы хотим видеть свою жизнь.
Эти вопросы древние, они появились с самого появления науки и философии, и растущие информационные технологии сегодняшнего дня, которые меняют наш мир, заставляют снова задумываться о них. Будем надеяться, что лучшие человеческие умы нашего времени сосредоточат большую часть своей энергии на поиске ответов на нужные вопросы, а не на демагогии вокруг преувеличенных угроз.
Источник: https://econet.ru/
Понравилась статья? Напишите свое мнение в комментариях.
Добавить комментарий