Идти в ногу с такой быстро развивающейся отраслью, как ИИ, — сложная задача. Итак, пока ИИ не сможет сделать это за вас, вот удобный обзор последних историй из мира машинного обучения, а также некоторые известные исследования и эксперименты, которые мы не освещали сами по себе.

На этой неделе в области ИИ мы увидели, что OpenAI, Anthropic, Google, Inflection, Microsoft, Meta и Amazon добровольно взяли на себя общие цели обеспечения безопасности и прозрачности ИИ до ожидаемого распоряжения администрации Байдена.

Как пишет мой коллега Девин Колдеви, здесь нет предложенного правила или применения — согласованные практики являются чисто добровольными. Но обещания в общих чертах описывают регулятивные подходы и политики в области ИИ, которые каждый поставщик может найти поддающимися изменению в Соединенных Штатах и ​​​​за рубежом.

Среди прочих обязательств компании вызвались проводить тестирование безопасности систем ИИ перед выпуском, делиться информацией о методах смягчения последствий ИИ и разрабатывать методы водяных знаков, которые упрощают идентификацию контента, созданного ИИ. Они также заявили, что будут инвестировать в кибербезопасность, чтобы защитить личные данные от ИИ и упростить сообщение об уязвимостях, а также уделить приоритетное внимание исследованиям социальных рисков, таких как системные предубеждения и проблемы с конфиденциальностью.

Обязательства, безусловно, являются важным шагом, даже если они не подлежат исполнению. Но возникает вопрос, есть ли какие-то скрытые мотивы со стороны нижеподписавшихся.

Судя по всему, OpenAI написала меморандум о внутренней политике, который показывает, что компания поддерживает идею требовать государственных лицензий от всех, кто хочет разрабатывать системы ИИ. Генеральный директор Сэм Альтман впервые поднял эту идею на слушаниях в Сенате США в мае, где он поддержал создание агентства, которое могло бы выдавать лицензии на продукты ИИ и отзывать их, если кто-то нарушает установленные правила.

В недавнем интервью для прессы Анна Маканджу, вице-президент OpenAI по глобальным вопросам, настаивала на том, что OpenAI не «проталкивает» лицензирование и что компания поддерживает только схемы лицензирования для моделей ИИ, более мощных, чем текущая GPT-4 OpenAI. Но выданные государством лицензии, если они будут реализованы так, как предлагает OpenAI, подготовят почву для потенциального столкновения со стартапами и разработчиками с открытым исходным кодом, которые могут рассматривать их как попытку затруднить доступ других в пространство.

ЧИТАТЬ   Deal Dive: почему этот стартап решил продать себя, а не собрать серию A

Думаю, лучше всего об этом сказал Девин, когда он описал мне это как «бросать гвозди на дорогу позади себя во время бега». По крайней мере, это иллюстрирует двуличный характер компаний, занимающихся искусственным интеллектом, которые стремятся умиротворить регулирующие органы, формируя политику в свою пользу (в данном случае, ставя в невыгодное положение более мелких претендентов) за кулисами.

Это тревожная ситуация. Но если вмешаются политики, все еще есть надежда на достаточные гарантии без чрезмерного вмешательства со стороны частного сектора.

Вот еще несколько историй об искусственном интеллекте за последние несколько дней:

  • Главный специалист по доверию и безопасности OpenAI уходит в отставку: Дэйв Уилнер, ветеран отрасли, возглавлявший отдел доверия и безопасности в OpenAI, объявил в опубликовать на LinkedIn что он уволился с работы и перешел на должность советника. В заявлении OpenAI говорится, что компания ищет замену и что технический директор Мира Мурати временно возглавит команду.
  • Пользовательские инструкции для ChatGPT: Из других новостей OpenAI компания запустила пользовательские инструкции для пользователей ChatGPT, поэтому им не нужно писать одни и те же инструкции для чат-бота каждый раз, когда они взаимодействуют с ним.
  • Google AI для написания новостей: Google тестирует инструмент, который использует ИИ для написания новостей, и начал демонстрировать его в публикациях. новый отчет из Нью-Йорк Таймс. Технический гигант представил систему искусственного интеллекта The New York Times, Washington Post и владельцу Wall Street Journal News Corp.
  • Apple тестирует чат-бота, похожего на ChatGPT: Apple разрабатывает ИИ, чтобы бросить вызов OpenAI, Google и другим компаниям. новый отчет Марк Гурман из Bloomberg. В частности, технический гигант создал чат-бота, который некоторые инженеры называют «Apple GPT».
  • Мета заклинание Лама 2: Meta представила новое семейство моделей ИИ, Лама 2, предназначенный для управления приложениями, созданными по образцу OpenAI ChatGPT, Bing Chat и других современных чат-ботов. Мета, обученная на общедоступных данных, утверждает, что производительность Llama 2 значительно улучшилась по сравнению с предыдущим поколением моделей Llama.
  • Авторы протестуют против генеративного ИИ: Системы генеративного ИИ, такие как ChatGPT, обучаются на общедоступных данных, в том числе на книгах, и не все создатели контента довольны таким расположением. В открытом письме, подписанном более чем 8500 авторами художественная литература, научная литература и поэзия, технологические компании, стоящие за великими языковыми моделями, такими как ChatGPT, Bard, LLaMa и другие, подвергаются наказанию за использование их текстов без разрешения или компенсации.
  • Microsoft представляет Bing Chat для предприятий: На своей ежегодной конференции Inspire Microsoft анонсировала Bing Chat Enterprise, версию своего чат-бота на базе Bing Chat AI с элементами управления конфиденциальностью и управлением данными, ориентированными на предприятие. При использовании Bing Chat Enterprise данные чата не сохраняются, Microsoft не может отображать данные о сотрудниках или компании клиента, а данные клиентов не используются для обучения базовых моделей ИИ.
ЧИТАТЬ   Власти Берлина проверят наркотики на чистоту — DW — 13.04.2023

Больше машинного обучения

Технически это тоже было новостью, но об этом стоит упомянуть здесь, в разделе исследований. Fable Studios, которая ранее создавала CG и 3D-шорты для виртуальной реальности и других медиа, продемонстрировала модель искусственного интеллекта, которую она называет Showrunner, которая (по ее словам) может писать, направлять, снимать и редактировать все телешоу — в их демо это был Южный парк.

Я разделился в этом вопросе. С одной стороны, я думаю, что продолжать это, не говоря уже о масштабной голливудской забастовке, связанной с проблемами оплаты труда и искусственного интеллекта, довольно дурной вкус. Хотя генеральный директор Эдвард Саатчи сказал, что, по его мнению, инструмент дает власть в руки создателей, обратное также спорно. В любом случае, это не было особенно хорошо воспринято людьми в отрасли.

С другой стороны, если кто-то с творческой стороны (которым является Саатчи) не исследует и не демонстрирует эти способности, то они будут исследованы и продемонстрированы другими с меньшими сомнениями в отношении их использования. Несмотря на то, что заявления Fable немного широки по сравнению с тем, что они на самом деле показали (что имеет серьезные ограничения), это похоже на оригинальный DALL-E в том смысле, что вызвало обсуждение и даже беспокойство, хотя и не заменяло настоящего художника. ИИ так или иначе займет место в медиапроизводстве, но по целому ряду причин к нему нужно подходить с осторожностью.

Что касается политики, то некоторое время назад у нас Закон о разрешении на национальную оборону прохождение (как обычно) действительно нелепых политических поправок, которые не имеют ничего общего с обороной. Но среди них было дополнение о том, что правительство должно организовать мероприятие, на котором исследователи и компании смогут сделать все возможное для обнаружения контента, созданного ИИ. Такого рода вещи определенно приближаются к уровню «национального кризиса», так что, наверное, хорошо, что он туда проскользнул.

ЧИТАТЬ   Спрос на технику падает. У производителей электронных устройств и комплектующих к ним проблемы

В Исследовательском центре Диснея, они все еще пытаются найти способ соединить цифровое и реальное — предположительно, для парковых целей. В этом случае они разработали способ отображения виртуальных движений персонажа или захвата движения (например, компьютерной собаки в фильме) на реального робота, даже если этот робот другой формы или размера. Он опирается на две системы оптимизации, каждая из которых информирует другую о том, что идеально, а что возможно, что-то вроде маленького эго и суперэго. Это должно значительно упростить задачу заставить собак-роботов вести себя как обычные собаки, но, конечно, это может быть распространено и на другие вещи.

И мы надеемся, что ИИ поможет нам отвлечь мир от добычи полезных ископаемых на дне моря, потому что это определенно плохая идея. Мультиинституциональный Исследование положило способность ИИ фильтровать сигнал от шума, чтобы предсказать местонахождение драгоценных минералов по всему миру. Как пишут в резюме:

В этой работе мы учитываем присущую сложность и «беспорядочность» переплетенных геологических, химических и биологических систем нашей планеты, используя машинное обучение для характеристики закономерностей, встроенных в многомерность месторождений и ассоциаций полезных ископаемых.

Исследование фактически предсказало и подтвердило местонахождение урана, лития и других ценных минералов. И как насчет последней строчки: система «улучшит наше понимание минерализации и условий минерализации на Земле, в нашей Солнечной системе и во времени». Потрясающий.

Source

От admin