Топ-100 Стивен Хокинг: искусственный интеллект может стать ошибкой
  • 28 апреля, 09:46
  • Астана
  • Weather icon +13
  • 520,93
  • 609,07
  • 6,68

Стивен Хокинг: искусственный интеллект может стать ошибкой

Фото: telegraph.co.uk

Недооценка угрозы со стороны искусственного интеллекта может обернуться для человечества неприятными последствиями и стать величайшей ошибкой в истории

Ствен Хокинг, говоря о достижениях в области искусственного интеллекта, в частности, о самоуправляемых машинах и голосовом помощнике Siri, подчеркнул, что «все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия». По мнению Хокинга недооценка угрозы со стороны искусственного интеллекта может стать величайшей ошибкой в истории человечества. Об этом пишет Surfingbird.ru.

Известный британский физик Стивен Хокинг в статье, написанной в соавторстве с профессором компьютерных наук Стюартом Расселлом из Калифорнийского университета, а также профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института, отмечает, что недооценка угрозы со стороны искусственного интеллекта может обернуться для человечества весьма неприятными последствиями и даже стать величайшей ошибкой в истории.

Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание интеллекта станет самым большим событием в истории человечества искусственного. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков.

Авторы статьи считают, что человечество в будущем может столкнуться с тем, что остановить машины с нечеловеческим интеллектом от самосовершенствования будет невозможно.

В результате процесс так называемой технологической сингулярности, подразумевающий чрезвычайно быстрое технологическое развитие, окажется неизбежным. Технологии превзойдут человека и начнут управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, словом, всем.

Хокинг отмечает, что последствиям искусственного интеллекта сегодня посвящено очень мало серьезных исследований. Ученый призывает задуматься о том, что можно сделать, чтобы избежать худшего сценария развития будущего.

Смотрите также:

Предложить новость

Спасибо за предложенную новость!

Надеемся на дальнейшее сотрудничество.


×