По словам соучредителя OpenAI Джона Шульмана, эра AGI приближается и может наступить всего через несколько лет.

Говоря о подкаст с Дваркешем ПателемШульман предсказал, что общий искусственный интеллект может быть создан «за два или три года».

Он добавил, что технологические компании должны быть готовы сотрудничать, чтобы обеспечить безопасное развитие технологий.

«Чтобы это работало, все должны договориться о разумных ограничениях на развертывание или непрерывное образование. В противном случае возникает динамика гонки, когда все пытаются оставаться впереди, и это может потребовать компромиссов в области безопасности».

Шульман также сказал, что потребуется «некоторая координация между более крупными организациями, которые предоставляют такого рода обучение».

AGI — несколько спорный термин, но обычно под ним понимают системы искусственного интеллекта, способные приобретать сложные человеческие способности, такие как здравый смысл и рассуждение.

Эксперты уже давно предупреждают, что этот уровень развитого ИИ представляет различные экзистенциальные угрозы человечеству, включая риск захвата ИИ или устаревания людей в составе рабочей силы.

Технологические компании спешат развивать эту футуристическую технологию. OpenAI, где до сих пор работает Шульман, является одним из пионеров в области создания искусственного интеллекта.

Шульман рассказал в подкасте Пателя: «Если бы AGI появился намного раньше, чем ожидалось, мы бы наверняка обратили на него внимание». Возможно, нам захочется немного замедлить обучение и развертывание, пока мы не будем абсолютно уверены, что сможем справиться с этим безопасно. «.

Он добавил, что компании должны быть готовы «приостановить либо непрерывное обучение, либо развертывание, либо избегать определенных типов обучения, которые, по нашему мнению, могут быть более рискованными». Поэтому простого установления разумных правил относительно того, что каждый должен делать, достаточно, чтобы каждый в некоторой степени ограничил эти вещи. «.

ЧИТАТЬ   «Обычно бывают очереди». Мы посмотрели, что продают в крупнейшей сети дискаунтеров Беларуси

Некоторые отраслевые эксперты призвали к аналогичной паузе после того, как OpenAI выпустила свою модель GPT-4. В марте прошлого года Илон Маск был среди нескольких экспертов, подписавших письмо, выражающее обеспокоенность по поводу развития ИИ. Подписавшиеся стороны призвали к шестимесячной паузе в обучении систем искусственного интеллекта, более мощных, чем GPT-4.

OpenAI не сразу ответила на запрос Business Insider о комментариях, сделанный в нерабочее время.

На прошлой неделе представитель OpenAI Кайла Вуд рассказал газете Washington Post что Шульман возобновил руководство своими исследованиями в области безопасности.

Изменения произошли после того, как Ян Лейке, возглавлявший команду Superalignment, подал в отставку на прошлой неделе и позже обвинил компанию в том, что она отдает предпочтение «блестящим продуктам» над безопасностью.

С тех пор группа распалась после ухода нескольких ее членов, в том числе главного ученого Ильи Суцкевера. Представитель OpenAI сказал Информация указывает на то, что оставшиеся сотрудники теперь входили в состав основной исследовательской группы.

Комментарии Шульмана прозвучали на фоне протестов, призывающих приостановить обучение моделей ИИ. Такие группы, как Pause AI, опасаются, что если такие компании, как OpenAI, создадут сверхразумные модели ИИ, они могут создать экзистенциальный риск для человечества.

На прошлой неделе протестующие Pause AI устроили демонстрацию возле штаб-квартиры OpenAI, анонсировав свою модель GPT-4o.

Source

От admin