Письмо с призывом остановить разработки в области искусственного интеллекта
Чем опасны нейронные сети?
Системы, чей интеллект способен соперничать с человеческим, могут представлять серьезную опасность для общества и человечества, считают авторы сообщения. В последние месяцы лаборатории искусственного интеллекта «участвовали в неконтролируемой гонке по разработке и внедрению все более мощных цифровых умов, которые никто — даже их создатели — не может надежно понять, предсказать или контролировать», — говорится в письме.
«Должны ли мы развивать нечеловеческие умы, которые со временем могли бы стать более многочисленными, более проницательными и заменить нас устаревших? Должны ли мы рисковать потерять контроль над нашей цивилизацией?” – задаются вопросами авторы сообщения.
Мощные системы ИИ, по мнению подписавших, следует разрабатывать только тогда, когда мы уверены, что их эффект будет положительным, а риски управляемыми.
Что просят авторы?
Те, кто ставит свое имя на букву, хотят, чтобы все лаборатории искусственного интеллекта в мире немедленно приостановили подготовку систем мощнее ГПТ-4 как минимум на полгода. За это время необходимо разрабатывать и внедрять протоколы безопасностиисполнение которых будет контролироваться независимыми внешними экспертами, утверждают авторы сообщения.
Современные мощные нейронные сети должны стать «более точными, безопасными, интерпретируемыми, прозрачными, надежными, последовательными, заслуживающими доверия и лояльными», — перечисляют авторы.
Ученые напоминают, что человечество уже остановило такие опасные исследования, как клонирование человека и евгеника. Сейчас самое время подумать о последствиях непроверенных научных разработок, говорят инженеры.
Недавно, следует напомнить, физики-ядерщики впервые за несколько лет перевели стрелки часов судного дня.