OpenAI фактически распустила команду, ответственную за обеспечение безопасности возможных будущих высокопроизводительных систем искусственного интеллекта, после ухода двух лидеров группы, включая соучредителя и главного ученого OpenAI Илью Суцкевера.

Вместо того, чтобы сохранять так называемую команду суперсогласования как отдельную организацию, OpenAI теперь более глубоко интегрирует группу в свои исследовательские усилия, чтобы помочь компании достичь своих целей в области безопасности, сообщила компания Bloomberg News. Команда была сформирована менее года назад под руководством Суцкевера и Яна Лейке, еще одного ветерана OpenAI.

Решение о переосмыслении команды было принято на фоне недавнего ухода из OpenAI, который вновь вызвал вопросы о подходе компании к балансированию скорости и безопасности при разработке своих продуктов искусственного интеллекта. Суцкевер, уважаемый исследователь, объявил во вторник, что покидает OpenAI после предыдущего конфликта с генеральным директором Сэмом Альтманом по поводу того, как быстро разрабатывать искусственный интеллект.

Вскоре после этого Лейке сообщил о своем уходе в кратком сообщении в социальных сетях. «Я подал в отставку», — сказал он. Для Лейке уход Суцкевера стал последней каплей в разногласиях с компанией, по словам человека, знакомого с ситуацией, попросившего не называть его имени, чтобы обсудить частные разговоры.

В заявлении, опубликованном в пятницу, Лейке заявил, что команда суперконфигурации борется за ресурсы. «Последние несколько месяцев моя команда плыла против ветра», — написал Лейке на своей странице в Facebook.

Несколько часов спустя Альтман ответил на сообщение Лейке. «Он прав, нам еще многое предстоит сделать», — написал Альтман на X. «Мы полны решимости сделать это».

Другие члены команды по суперподстройке также покинули компанию в последние месяцы. Леопольд Ашенбреннер и Павел Измайлов были уволены из OpenAI. L'Information ранее объявила о своем уходе. По словам человека, знакомого с ситуацией, Измайлова исключили из команды еще до его ухода. Ашенбреннер и Измайлов не ответили на запросы о комментариях.

ЧИТАТЬ   Intel безнадежно отстает от времени. AMD начинает производство современных процессоров Ryzen по 3-нм техпроцессу с новейшей архитектурой

Джон Шульман, соучредитель стартапа, чьи исследования сосредоточены на больших языковых моделях, будет научным руководителем работы OpenAI по согласованию в будущем, заявили в компании. Отдельно OpenAI сообщила в своем блоге, что назначила директора по исследованиям Якуба Пахоцкого взять на себя роль Суцкевера в качестве главного ученого.

«Я уверен, что он приведет нас к быстрому и безопасному продвижению к нашей миссии по обеспечению того, чтобы AGI приносил пользу всем», — сказал Альтман в своем заявлении во вторник по поводу назначения Пачоцкого. AGI, или общий искусственный интеллект, относится к ИИ, который может выполнять большинство задач так же или лучше, чем люди. AGI пока не существует, но его создание — часть миссии компании.

В OpenAI также есть сотрудники, участвующие в работе, связанной с безопасностью ИИ, в командах по всей компании, а также в отдельных командах, занимающихся безопасностью. Одна из них, группа по обеспечению готовности, созданная в октябре прошлого года, занимается анализом и предотвращением потенциальных «катастрофических рисков» со стороны систем ИИ.

Команда суперсоюза должна была отражать самые долгосрочные угрозы. OpenAI объявила о создании команды Superalignment в июле прошлого года, заявив, что она сосредоточится на том, как контролировать и обеспечивать безопасность будущего программного обеспечения для искусственного интеллекта, которое будет умнее человека – то, что компания уже давно объявила технологической целью. В объявлении OpenAI заявила, что затем выделит 20% своей вычислительной мощности на работу команды.

В ноябре Суцкевер был одним из нескольких членов совета директоров OpenAI, которые решили уволить Альтмана, и это решение вызвало пятидневную бурю в компании. Президент OpenAI Грег Брокман подал в отставку в знак протеста, инвесторы взбунтовались, и через несколько дней почти все из примерно 770 сотрудников стартапа подписали письмо с угрозой уйти в отставку, если Альтмана не вернут. Примечательно, что Суцкевер также подписал письмо и заявил, что сожалеет о своем участии в отстранении Альтмана. Вскоре после этого Альтман был восстановлен в должности.

ЧИТАТЬ   Женщина рассказала, что недолго оплакивала после смерти брата

За несколько месяцев, прошедших после ухода и возвращения Альтмана, Суцкевер практически исчез из поля зрения общественности, что вызвало слухи о его дальнейшей роли в компании. По словам человека, знакомого с ситуацией, Суцкевер также прекратил работу в офисе OpenAI в Сан-Франциско.

В своем заявлении Лейке сказал, что его уход произошел после серии разногласий с OpenAI по поводу «основных приоритетов» компании, которые, по его словам, не были достаточно сосредоточены на мерах безопасности, связанных с созданием «ИИ, который мог бы работать лучше, чем люди». .

В сообщении, объявляющем о своем уходе ранее на этой неделе, Суцкевер заявил, что он «уверен», что OpenAI разработает AGI, который будет «одновременно безопасным и полезным» под его нынешним руководством, включая Альтмана.

© 2024 Bloomberg LP


(Эта история не редактировалась сотрудниками NDTV и создана автоматически на основе синдицированного канала.)

Партнерские ссылки могут создаваться автоматически — подробности см. в нашем заявлении об этике.

Source

От admin