«Ядерная война — единственная альтернатива уничтожению человечества искусственным интеллектом»: мнение учёного
Известный теоретик искусственного интеллекта (ИИ) Элиезер Юдковский написал статью, в которой призвал прекратить разработку таких систем и заявил, что «спасти» человечество от уничтожения может только ядерная война.
Юдковский также сказал журналистам, что приостановить исследования ИИ недостаточно. Мир, по его мнению, должен быть готов уничтожить кластеры графических процессоров, обучающих такие системы, с помощью авиаударов и угрожать нанести ядерный удар странам, которые не прекратят исследования новой технологии.
Для Юдковского вопрос стоит не в том, уничтожит ли ИИ человечество, а в том, когда это случится. Он считает, что это очевидное событие. Поэтому учёный уверен, что единственный способ остановить создание сильного искусственного интеллекта, не уступающего человеческому или превосходящего его, — это предпринять действия, которые неизбежно вызовут более масштабную войну и приведут к миллионам, а то и миллиардам, смертей.
Юдковский также отметил, что США и Китай являются лидерами в стремлении развивать ИИ. Именно эти страны, по сценарию учёного, с наибольшей вероятностью нанесут авиаудар по центрам обработки данных своего соперника.
Комментариев 0