Подпишись

Сценарии, к которым может привести развитие искусственного интелекта

Невролог и философ Сэм Харрис описывает сценарии, которые вполне могут произойти в связи с развитием искусственного интеллекта (ИИ). Одна из главных проблем - это как заставить вычислительные системы принимать не просто рассудительные решения, но и эмоциональные.

Невролог и философ Сэм Харрис описывает сценарии, которые хоть и кажутся страшными, но вполне могут произойти с нами, как с видом.

И в самом деле, очень трудно представить, как Искусственный Интеллект (ИИ) будет нас уничтожать, но всё же, есть люди, которые пытаются перенестись будущее в настоящее и предугадать дальнейшие возможные пути развития человечества. И вот о чём нам стоит задуматься перед тем как над этим же вопросом задумается ИИ.

Сценарии, к которым может привести развитие искусственного интелекта

Что выберет искусственный интеллект в тот момент, когда он стоит перед выбором?

 

Одна из главных проблем, с которой столкнется человек с развитием ИИ, это как заставить вычислительные системы принимать не просто рассудительные решения, но и эмоциональные. Потому что ИИ может с легкость выбрать убийство всех людей, для того, чтобы спасти другие виды. Этот как если бы на вас напал бандит с ножом, а вы вытащили ваш пистолет. И в этот момент, вместо того чтобы защитить хозяина, ваша верная собака нападет на вас просто потому что у вас в руках более опасное оружие...

А что будет если двери будут одинаковы? За дверью номер один ...


Учитывая то, насколько ценными считаются данные разведки, что случится если с ними начнет работать ИИ? Что может за этим последовать? Полномасштабная ядерная война? Глобальная пандемия? Джастин Бибер станет президентом Соединенных Штатов? Дело в том, что ИИ может просто уничтожить цивилизацию, в том виде, в котором мы её знаем. Уже сегодня многие говорят, как сильно и быстро деградирует общество. А что будет если об этом подумает ИИ и решит, что проще будет уничтожить человечество, а не продолжать технологическое развитие, которое только ухудшает ситуацию?

А что за дверью номер два?

Единственной альтернативой является то, что мы год за годом продолжаем совершенствовать наши интеллектуальные машины. В определенный момент, мы будем строить машины, которые умнее, чем мы, и как только у нас появятся машины, которые умнее нас, они начнут совершенствовать себя. И тогда мы рискуем, создать "интеллектуальный взрыв", и что этот процесс может уничтожить всех нас. Речь идет о том, что мы будем строить машины, которые гораздо более компетентны, чем мы, что малейшее расхождение между их целями и нашими собственными может привести к полному нашему уничтожению, как вида.

Насекомые XXI века


Просто подумайте о том, как мы относимся к муравьям. Мы не ненавидим их. Мы не сходим с нашего пути, чтобы нанести им вред. Мы перешагиваем через этих маленьких работяг не обращая на них внимания, но всякий раз, когда их присутствие серьезно конфликтует с одной из наших целей, скажем, при строительстве здания, мы уничтожаем их без малейшего сожаления. Речь идет о том, что мы в один прекрасный день построим машины, которые, независимо от того являются ли они сознательными или нет, могут начать относиться к нам как к муравьям.

Глубокое мышление, глубокое воздействие

Интеллект является результатом процесса обработки информации в физических системах. Мы уже создали узкий интеллект для наших машин, и многие из них выполняют определенные функции на уровне или даже лучше человека. Интеллект является либо источником всего того, что мы ценим, или оружием, которое мы используем чтобы защитить все, что мы ценим. Это наш самый ценный ресурс. У нас есть проблемы, которые мы обязаны решить. Мы хотим победить СПИД, диабет и рак. Мы хотим построить по-настоящему рабочие экономические системы. Мы хотим улучшить климат на планете. А что будет делать ИИ, если у него просто отсутствует такое понятие как глубокое мышление?

Сценарии, к которым может привести развитие искусственного интелекта

Где мы находимся?

 

Человечество ещё не добралось до пика интеллекта. Это очень важно понять. Это то, что делает наше положение настолько нестабильным, и что делает наши интуитивные риски проигрышными. В подавляющем большинстве случаев, потенциал человеческого интеллекта простирается гораздо дальше, чем мы в настоящее время представляем себе. А что если мы построим машины, которые будут умнее нас? Они же смогут гораздо лучше просчитывать будущее и лучше определять то место где они находятся, чтобы в итоге выбрать направление дальнейшего движения.

Скорость интеллекта


Представьте себе, что человечество построило Сверхразумный ИИ, который при этом не умнее среднестатистической группы ученых. Единственное отличие заключается в том, что его электронные схемы функционируют примерно в миллион раз быстрее, чем наши, биохимических. В результате эта машина "думает" примерно в миллион раз быстрее, чем сознание, которое его построило. Таким образом, оставив ИИ работать в течение недели, мы обнаружим, что он выполнил 20000 лет интеллектуального труда в человеческом эквиваленте. Что нам делать с такой скоростью обработки данных? Тормозить скорость работы ИИ до человеческого уровня?

Лучший вариант развития событий

На самом деле, как вас так и меня больше всего волнует то, как будут развиваться события в идеальной среде. Представим, что мы додумались и сконструировали Сверхразумный ИИ, который не имеет проблем с безопасностью. Это как если бы мы были создали оракула, который ведет себя точно так, как было задумано. Что же мы получим? По сути, мы создадим идеальное трудосберегающее устройство. Итак, мы говорим о конце нудного человеческого существования. Класс!!! Также можно сказать, что создание подобной машины станет концом всего интеллектуального труда. Многим может показаться, что это хорошо, но спросите себя, что произойдет в таком случае? Даже сейчас, при незначительном развитии ИИ, мы наблюдаем рост имущественного неравенства и безработицы, которой мы никогда ранее не наблюдали. Мы не готовы делиться своим богатством с другими, и скорей всего миром будут править несколько триллионеров, в то время как оставшаяся часть человечества будет полностью зависеть от их воли, а точнее от воли подвластного им ИИ, который будет действовать сверхрационально не жалея никого.

Следующая гонка вооружений

Представим, что у каждой страны в мире есть ИИ, который просчитывает идеальный сценарий для победы в глобальной войне. Неважно какая это война, наземная, в воздухе или вообще кибервойна, победный сценарий получат все. По сути, ИИ создаст для каждой сверхдержавы стратегию победы, которая в итоге приведет к концу человечества, потому что это будет война Искусственных Интеллектов против человечества.


"Не волнуйтесь и не засоряйте вашу хорошенькую головку этими глупыми вопросами..."

По сути, ИИ создаст общество нарцисов-растаманов. Don`t worry, be happy. Именно это завуалировано говорит ИИ облегчая нам жизнь уже сегодня. Уже сегодня мы чувствуем, как ИИ в его зачаточном виде делает нас глупее, а что будет через 50 или 100 лет, когда, как нам обещают уже будет ИИ превосходящий интеллект человека. Если интеллект занимается лишь вопросом обработки информации, и мы продолжаем совершенствовать наши машины, то не думаете ли Вы что мы уже создали суперинтеллект? Мы уже сегодня замечаем, что ИИ небезопасен, например ИИ в навигаторах, который заставляет людей выезжать на встречную полосу и прыгать на автомобиле в озера. И я говорю о том, что у нас всего лишь 50 лет, чтобы встретиться лицом к лицу с главным врагом человека - сверхинтеллектом.



Технологии прямо в мозг

Машины в будущем не могут не разделять наши ценности, потому что они будут в буквальном смысле продолжением нас самих. Они будут вшиты на наш мозг, и мы, по сути, станем их лимбической системой. Подумайте о том, что вы что-то вставляете себе в мозг, что может считывать информацию и обрабатывать её по неизвестным вам алгоритму. Вы иногда не доверяете своему мозгу, а тут микросхема. Но с приходом сверхразумного ИИ, встраивание чипов себе в мозг, будем самым безопасным и благоразумным способом идти вперед. Но вопрос безопасности данных, который мы не можем решить даже сегодня, заставляет задуматься, что всё это как-то неправильно.

Мы должны рассмотреть эти сценарии и действовать


У человечества нет решения проблемы ИИ, мы можем предложить и просто рекомендовать. Человек должен изначально строить ИИ с учетом принципа "не навреди человечеству". Когда вы говорите о Сверхразумных ИИ, который может внести изменения в себя, кажется, что для того, чтобы приступить к его созданию, мы, как вид, должны решить все наши внутренние проблемы, иначе мы будем обречены. Мы должны признать, что мы находимся в процессе создания своего рода бога. Представьте себе, что вы живете под пристальным взглядом Бога, которого вы физически ощущаете и что ходить на исповедь вам придется не в церковь, а к своему мобильному устройству. опубликовано econet.ru 

P.S. И помните, всего лишь изменяя свое сознание - мы вместе изменяем мир! © econet

Источник: https://econet.ru/

Понравилась статья? Напишите свое мнение в комментариях.
Комментарии (Всего: 0)

    Добавить комментарий

    2 процента людей — думает, 3 процента — думает, что они думают, а 95 процентов людей лучше умрут, чем будут думать. Джордж Бернард Шоу
    Что-то интересное