Домашний экран приложения OpenAI ChatGPT на экране ноутбука в феврале в Лондоне.
Леон Нил / Getty Images
скрыть заголовок
переключить заголовок
Леон Нил / Getty Images

Домашний экран приложения OpenAI ChatGPT на экране ноутбука в феврале в Лондоне.
Леон Нил / Getty Images
Во вторник эксперты по искусственному интеллекту выпустили страшное предупреждение: модели ИИ вскоре могут быть умнее и мощнее нас. и пришло время установить границы, чтобы убедиться, что они не захватят людей и не разрушат мир.
«Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими общесоциальными рисками, такими как пандемии и ядерная война», — говорится в заявлении группы ученых и лидеров отрасли. заявление который был размещен на веб-сайте Центра безопасности ИИ.
Сэм Альтман, генеральный директор OpenAI, создатель текстового джаггернаута ChatGPT и так называемый крестный отец ИИ, недавно покинувший Google, Джеффри Хинтон, были среди сотен людей, подписавших заявление «мы на связи» на грани кризиса.

Призывы к обеспечению безопасности систем ИИ усилились в последние месяцы, поскольку государственные и коммерческие компании внедряют новые поколения программ.
В отдельном заявлении, опубликованном в марте и подписанном более чем 30 000 человек, технические руководители и исследователи призвали к шестимесячной паузе в обучении систем ИИ, более мощных, чем GPT-4, последняя версия чат-бота ChatGPT.
А Открой письмо предупредил: «Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной осторожностью и ресурсами».
В недавнем интервью NPR Хинтон, который сыграл важную роль в разработке ИИ, сказал, что программы ИИ находятся на пути к тому, чтобы превзойти своих создателей раньше, чем ожидалось.

«Долгое время я думал, что нам до этого осталось от 30 до 50 лет… Теперь я думаю, что мы, может быть, намного ближе, может быть, всего пять лет от этого», — сказал он.
Дэн Хендрикс, директор Центра безопасности ИИ, отметил в Лента Твиттера что в ближайшей перспективе ИИ создает неотложные риски «системной предвзятости, дезинформации, неправомерного использования, кибератак и использования оружия».
Он добавил, что общество должно стремиться одновременно устранять все риски, связанные с ИИ. «Компании могут управлять несколькими рисками одновременно, это не «или/или», а «да/и», — сказал он. «С точки зрения управления рисками было бы неразумно отдавать приоритет исключительно текущим убыткам, также было бы неразумно игнорировать их».
Бобби Аллин из NPR внес свой вклад в эту историю.