Известный британский астрофизик космолог Стивен Хокинг, общаясь с пользователями портала www.reddit.com/comments/3eret9/ объяснил почему он считает опасным создание разумных и сверхразумных искусственных интеллектов (ИИ). Он считает, что они будут относиться к людям примерно так, как мы к муравьям.
Хокинг подчеркнул, что он не считает подобные машины исчадиями зла, желающими уничтожить человечество. Скорее, они просто не будут замечать людей. Сверхумный интеллект будет очень увлечен решением своих задач и если цели его и людей не будут совпадать, то ИИ это не будет сильно волновать. Стивен призывает не ставить людей на место муравьев.
Другим проблемным аспектом быстрого развития технологий ИИ и роботехники может стать быстрый разрыв в уровне благосостояния между богатыми людьми, которые будут владеть производство роботов, и остальными миром.
Ученый предлагает замедлить разработку универсальных ИИ и переключиться на создание интеллектуальных машин, способных выполнять только ограниченный круг дел.