СТОКГОЛЬМ: ведущие лидеры в области искусственного интеллекта, в том числе генеральный директор OpenAI. Сэм Альтман Вторник присоединился к экспертам и профессорам в вопросе повышения «риска исчезновения ИИ», который они призвали политиков уравнять с рисками, связанными с пандемиями и ядерной войной. «Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими общесоциальными рисками, такими как пандемии и ядерная война», — написали более 350 подписавшихся в письме, опубликованном Центром безопасности ИИ (CAIS).
Помимо Альтмана, в их число вошли руководители компаний, занимающихся искусственным интеллектом, DeepMind и Anthropic, а также руководители Microsoft и Google. Среди них были и Джеффри Хинтон и Йошуа Бенжио — двое из трех так называемых «крестных отцов ИИ», получивших в 2018 году премию Тьюринга за свою работу в области глубокого обучения, — а также профессора различных институтов, от Гарварда до китайского университета Цинхуа.
Заявление CAIS указывает на Мету, где третий крестный отец ИИ, Ян ЛеКун, работает, письмо не подписывать. Письмо совпало с заседанием Совета по торговле и технологиям США-ЕС в Швеции, на котором политики, как ожидается, обсудят регулирование ИИ. Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли первыми в апреле сослались на потенциальные риски для компании.
Заявление прозвучало во время растущей обеспокоенности по поводу потенциального вреда ИИ. Недавние достижения в так называемых больших языковых моделях — типа системы ИИ, используемой ChatGPT и другими чат-ботами — вызвали опасения, что ИИ вскоре будет широко использоваться для распространения дезинформации и пропаганды или что он может уничтожить миллионы белых людей. воротниковые работы. В конце концов, некоторые считают, что искусственный интеллект может стать достаточно мощным, чтобы вызвать перевороты в масштабах всего общества в течение нескольких лет, если ничего не будет сделано для его замедления, хотя исследователи иногда останавливаются, объясняя, как это произойдет.
Эти опасения разделяют многие лидеры отрасли, что ставит их в необычное положение, когда они заявляют, что технология, которую они создают — и во многих случаях яростно пытаются создать быстрее, чем их конкуренты, — представляет серьезный риск и требует более строгого регулирования.
Недавние разработки в области ИИ вызвали опасения, что эта технология также может привести к нарушению конфиденциальности, дезинформационным кампаниям и проблемам с «интеллектуальными машинами», которые думают сами за себя. Пионер искусственного интеллекта Хинтон ранее заявил, что искусственный интеллект может представлять «более серьезную» угрозу для человечества, чем изменение климата. Этот месяц, Альтман встретилась с президентом США Джо Байденом и вице-президентом Камалой Харрис, чтобы обсудить регулирование ИИ. В показаниях Сената после встречи Альтман предупредил, что риски передовых систем ИИ достаточно серьезны, чтобы оправдать вмешательство правительства, и призвал к регулированию ИИ в связи с его потенциальным вредом.
Помимо Альтмана, в их число вошли руководители компаний, занимающихся искусственным интеллектом, DeepMind и Anthropic, а также руководители Microsoft и Google. Среди них были и Джеффри Хинтон и Йошуа Бенжио — двое из трех так называемых «крестных отцов ИИ», получивших в 2018 году премию Тьюринга за свою работу в области глубокого обучения, — а также профессора различных институтов, от Гарварда до китайского университета Цинхуа.
Заявление CAIS указывает на Мету, где третий крестный отец ИИ, Ян ЛеКун, работает, письмо не подписывать. Письмо совпало с заседанием Совета по торговле и технологиям США-ЕС в Швеции, на котором политики, как ожидается, обсудят регулирование ИИ. Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли первыми в апреле сослались на потенциальные риски для компании.
Заявление прозвучало во время растущей обеспокоенности по поводу потенциального вреда ИИ. Недавние достижения в так называемых больших языковых моделях — типа системы ИИ, используемой ChatGPT и другими чат-ботами — вызвали опасения, что ИИ вскоре будет широко использоваться для распространения дезинформации и пропаганды или что он может уничтожить миллионы белых людей. воротниковые работы. В конце концов, некоторые считают, что искусственный интеллект может стать достаточно мощным, чтобы вызвать перевороты в масштабах всего общества в течение нескольких лет, если ничего не будет сделано для его замедления, хотя исследователи иногда останавливаются, объясняя, как это произойдет.
Эти опасения разделяют многие лидеры отрасли, что ставит их в необычное положение, когда они заявляют, что технология, которую они создают — и во многих случаях яростно пытаются создать быстрее, чем их конкуренты, — представляет серьезный риск и требует более строгого регулирования.
Недавние разработки в области ИИ вызвали опасения, что эта технология также может привести к нарушению конфиденциальности, дезинформационным кампаниям и проблемам с «интеллектуальными машинами», которые думают сами за себя. Пионер искусственного интеллекта Хинтон ранее заявил, что искусственный интеллект может представлять «более серьезную» угрозу для человечества, чем изменение климата. Этот месяц, Альтман встретилась с президентом США Джо Байденом и вице-президентом Камалой Харрис, чтобы обсудить регулирование ИИ. В показаниях Сената после встречи Альтман предупредил, что риски передовых систем ИИ достаточно серьезны, чтобы оправдать вмешательство правительства, и призвал к регулированию ИИ в связи с его потенциальным вредом.