Правительственные чиновники и лидеры отрасли искусственного интеллекта договорились во вторник принять основные меры безопасности в быстро развивающейся области и создать международную сеть исследований в области безопасности.

Спустя почти шесть месяцев после первого в мире саммита по безопасности ИИ в Блетчли-парке в Англии, Великобритания и Южная Корея на этой неделе проводят саммит по безопасности ИИ в Сеуле. Встреча подчеркивает новые проблемы и возможности, с которыми мир сталкивается с появлением технологий искусственного интеллекта.

Британское правительство объявило во вторник новое соглашение между 10 странами и Европейским Союзом создать международную сеть, аналогичную британскому Институту безопасности ИИ, который является первой в мире организацией, финансируемой государством, для ускорения развития науки о безопасности ИИ. Сеть будет способствовать общему пониманию безопасности ИИ и согласовывать свою работу с исследованиями, стандартами и тестированием. Соглашение подписали Австралия, Канада, ЕС, Франция, Германия, Италия, Япония, Сингапур, Южная Корея, Великобритания и США.

В первый день Саммита ИИ в Сеуле мировые лидеры и ведущие компании в области ИИ собрались на виртуальную встречу под председательством премьер-министра Великобритании Риши Сунака и президента Южной Кореи Юн Сук Ёля, чтобы обсудить безопасность, инновации и инклюзивность ИИ.

В ходе обсуждений лидеры договорились о более широком видении Сеульская декларацияподчеркивая расширение международного сотрудничества в разработке искусственного интеллекта для решения основных глобальных проблем, защиты прав человека и преодоления цифрового неравенства в мире, уделяя при этом приоритет «ориентации на человека, заслуживающему доверия и ответственности».

«ИИ — это чрезвычайно интересная технология, и Великобритания возглавила глобальные усилия по использованию ее потенциала, проведя в прошлом году первый глобальный саммит по безопасности ИИ», — сказал Сунак в заявлении британского правительства. «Но чтобы воспользоваться этим, нам нужно убедиться, что это безопасно». Вот почему я рад, что сегодня мы заключили соглашение о создании сети институтов безопасности ИИ.

ЧИТАТЬ   В центре внимания черные дела: Sweet Heaven от Nne

В прошлом месяце Великобритания и США подписали меморандум о партнерстве сотрудничать в исследованиях, оценке безопасности и консультировании по безопасности ИИ.

Соглашение, объявленное сегодня, следует первые глобальные обязательства по безопасности ИИ от 16 компаний, занимающихся ИИ, включая Amazon, Anthropic, Cohere, Google, IBM, Inflection AI, Meta, Microsoft, Mistral AI, Open AI, Samsung Electronics, Институт технологических инноваций, xAi и Zhipu.ai. (Жипу.ай — китайская компания, поддерживаемая Alibaba, Ant и Tencent.)

Компании, занимающиеся искусственным интеллектом, в том числе в США, Китае и Объединенных Арабских Эмиратах (ОАЭ), согласились взять на себя обязательства по обеспечению безопасности «вообще не разрабатывать и не развертывать какую-либо модель или систему, если меры по снижению риска не могут удерживать риски ниже пороговых значений», согласно данным Заявление британского правительства.

«Это первый в мире случай, когда так много крупных компаний, занимающихся искусственным интеллектом, из столь разных уголков земного шара, соглашаются соблюдать одни и те же обязательства по обеспечению безопасности в области искусственного интеллекта», — сказал Сунак. «Эти обязательства гарантируют, что ведущие мировые компании, занимающиеся искусственным интеллектом, продемонстрируют прозрачность и подотчетность в своих планах по разработке безопасного искусственного интеллекта».

Source

От admin