Домашний экран приложения OpenAI ChatGPT на экране ноутбука в феврале в Лондоне.

Леон Нил / Getty Images


скрыть заголовок

переключить заголовок

Леон Нил / Getty Images

gettyimages 1462188008 882e18cb60aa9f47fd79679ce541032789ee8e02 s1200

Домашний экран приложения OpenAI ChatGPT на экране ноутбука в феврале в Лондоне.

Леон Нил / Getty Images

Во вторник эксперты по искусственному интеллекту выпустили страшное предупреждение: модели ИИ вскоре могут быть умнее и мощнее нас. и пришло время установить границы, чтобы убедиться, что они не захватят людей и не разрушат мир.

«Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими общесоциальными рисками, такими как пандемии и ядерная война», — говорится в заявлении группы ученых и лидеров отрасли. заявление который был размещен на веб-сайте Центра безопасности ИИ.

Сэм Альтман, генеральный директор OpenAI, создатель текстового джаггернаута ChatGPT и так называемый крестный отец ИИ, недавно покинувший Google, Джеффри Хинтон, были среди сотен людей, подписавших заявление «мы на связи» на грани кризиса.

Призывы к обеспечению безопасности систем ИИ усилились в последние месяцы, поскольку государственные и коммерческие компании внедряют новые поколения программ.

В отдельном заявлении, опубликованном в марте и подписанном более чем 30 000 человек, технические руководители и исследователи призвали к шестимесячной паузе в обучении систем ИИ, более мощных, чем GPT-4, последняя версия чат-бота ChatGPT.

А Открой письмо предупредил: «Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной осторожностью и ресурсами».

ЧИТАТЬ   В конкурсе Sheep to Shawl у вас 5 человек, 1 овца и 3 часа — удачи!

В недавнем интервью NPR Хинтон, который сыграл важную роль в разработке ИИ, сказал, что программы ИИ находятся на пути к тому, чтобы превзойти своих создателей раньше, чем ожидалось.

«Долгое время я думал, что нам до этого осталось от 30 до 50 лет… Теперь я думаю, что мы, может быть, намного ближе, может быть, всего пять лет от этого», — сказал он.

Дэн Хендрикс, директор Центра безопасности ИИ, отметил в Лента Твиттера что в ближайшей перспективе ИИ создает неотложные риски «системной предвзятости, дезинформации, неправомерного использования, кибератак и использования оружия».

Он добавил, что общество должно стремиться одновременно устранять все риски, связанные с ИИ. «Компании могут управлять несколькими рисками одновременно, это не «или/или», а «да/и», — сказал он. «С точки зрения управления рисками было бы неразумно отдавать приоритет исключительно текущим убыткам, также было бы неразумно игнорировать их».

Бобби Аллин из NPR внес свой вклад в эту историю.



Source

От admin