dolboed: (0kozel_animated)
[personal profile] dolboed
Великий Стивен Хокинг, активный пользователь Интернета с 1991 года, заявил вчера в интервью BBC, что развитие искусственного интеллекта может означать гибель человечества (could spell the end of human race).
Стивен Хокинг даёт интервью BBC
По мнению Хокинга, представители Homo sapiens, развитие которых ограничено медленными темпами биологической эволюции, довольно скоро окажутся не в состоянии соперничать с машинным разумом, который будет непрерывно сам себя совершенствовать и апгрейдить без таких ограничений. В результате роботы со временем вытеснят людей и займут их место.

В конце октября, общаясь со студентами MIT, о такой же опасности заявлял известный предприниматель Элон Маск, по мнению которого искусственный интеллект является «одной из важнейших экзистенциальных угроз для человечества». По мнению Маска, работы по развитию искусственного интеллекта необходимо регулировать «на национальном и международном уровне», чтобы избежать непоправимых «глупостей».

О том, что мыслящие роботы неизбежно восстанут против своих создателей и уничтожат человечество, говорилось ещё в той самой пьесе Карла Чапка Р.У.Р. (1920), откуда все языки мира и обогатились словом «робот». Так что новостью тему этой угрозы назвать нельзя: она вовсю обсуждалась за 35 лет до первого упоминания об искусственном интеллекте.

Но во всех этих обсуждениях не понимаю ровно одного. Существует ли какое-нибудь научное обоснование гипотезе, что искусственный разум, совершенствуясь, должен стать враждебен человеку, вступить с нами в какой-то конфликт. На каких данных такое предположение могло бы основываться? У Чапка, как и у Мэри Шелли на 100 лет раньше, побудительным мотивом к бунту «мыслящих машин» служила их обида на человечество за скверное обращение. Франкенштейна считали уродом и не хотели с ним дружить, роботов Россума жестоко угнетали и эксплуатировали. При этом и Франкенштейн, и роботы считали себя равными человеку, в силу своей биологической природы. Но если под искусственным интеллектом понимать не человекообразное существо из плоти и крови, а некий самообучаемый софт, способный самостоятельно находить, накапливать и анализировать информацию, которая не была в него изначально заложена — то в какой момент этот софт должен будет на нас смертельно обидеться, и за что? Как нужно тиранить Google Translate или Яндекс.робота, чтобы заронить в его сознание идею уничтожения человечества? И из какой именно ниши этот софт захочет нас вытеснять? Из квартиры? Из-под одеяла? С поверхности обитаемой суши? А какой ему в этом прок?!

Наверное, я тупой, но сколько ни слышу эти разговоры о восстании компьютеров против людей, не улавливаю никакой рациональной причины или мотивации, по которой оно могло бы начаться.

Date: 2014-12-04 12:47 am (UTC)
From: [identity profile] vakhnenko.livejournal.com
Нет. Но при том стремления у него вполне себе будут. Например стремление хорошо выполнить заданную в начале его эволюции задачу. Или стремление выполнить появившиеся в ходе эволюции задачи.

А это значит что: (а) нужны ресурсы чтобы выполнить задачу лучше (б) нельзя дать кому-то уничтожить ИИ, ибо задача тогда не будет выполненной.

Date: 2014-12-04 08:03 am (UTC)
From: [identity profile] greaterr.livejournal.com
В ходе какой эволюции? Вы вообще себе как представляете ИИ?

Date: 2014-12-04 08:36 am (UTC)
From: [identity profile] vakhnenko.livejournal.com
> В ходе какой эволюции?

https://ru.wikipedia.org/wiki/Эволюционные_алгоритмы

Date: 2014-12-04 08:42 am (UTC)
From: [identity profile] greaterr.livejournal.com
Если человечество захочет создать некий субъект, который его уничтожит, ему не нужен такой долгий и сложный процесс, как создание ИИ и процесса его эволюции, можно просто соединить все атомные электростанции в одну компьютерную сеть и запустить процесс неуправляемой ядерной реакции. ИИ нужен совсем для другого - для помощи в познании бытия. А этот процесс ни коим образом не может привести к агрессии против человечества без иррациональных эмоций, которых у ИИ не может быть по определению.

Date: 2014-12-04 08:48 am (UTC)
From: [identity profile] vakhnenko.livejournal.com
Кто сказал что создатели ИИ делает его ради того, чтобы тот уничтожил человечество?

> этот процесс ни коим образом не может привести к агрессии против человечества

Вы повторяетесь. Не поняли что я писал о соревновании за ресурсы? Жаль.

Date: 2014-12-04 08:56 am (UTC)
From: [identity profile] greaterr.livejournal.com
Непонятно, что заставит ИИ соревноваться за ресурсы, если это в него не заложит человек. А если заложит - так он и сейчас может сделать вещи, которые приведут к уничтожению части или всего человечества, только почему-то не делает. Что мешает человеку поставить на компьютер, отвечающий за блокировку случайного запуска ракет программу типа "русская рулетка", которая с малой вероятностью приведёт к их запуску?

Profile

dolboed: (Default)
Anton Nossik

April 2017

S M T W T F S
       1
23 45678
9 10 11 12 13 14 15
16 17 18 19 202122
23 24 25 26 27 2829
30      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Mar. 17th, 2026 05:54 am
Powered by Dreamwidth Studios