Вы знаете, что совершили ошибку, когда одновременно разозлили Белый дом, Человека года по версии TIME и самых ярых фанатов поп-культуры. Именно это произошло на прошлой неделе с X, принадлежащей Илону Маску платформой, ранее называвшейся Twitter, когда фальшивые порнографические изображения Тейлор Свифт, созданные искусственным интеллектом, стали вирусными.

Один из самых распространенных постов с откровенными дипфейками без согласия был просмотрен более 45 миллионов раз и получил сотни тысяч лайков. Это даже не учитывает все аккаунты, которые поделились изображениями в отдельных постах: если изображение распространилось так широко, удалить его практически невозможно.

У X нет инфраструктуры для быстрого и масштабного выявления оскорбительного контента. Даже во времена Twitter эту проблему было трудно решить, но она стала намного хуже с тех пор, как Маск уволил большую часть персонала Twitter, включая большую часть его сотрудников. доверие и безопасность команды. Таким образом, огромная и страстная база поклонников Тейлор Свифт взяла дело в свои руки, наводнив результаты поиска такими запросами, как «Taylor Swift Ai» и «Taylor Swift Deepfake», чтобы пользователям было сложнее найти изображения оскорбительными. Как пресс-секретарь Белого дома называется Конгресс Чтобы что-то с этим сделать, X просто запретил поисковый запрос «Тейлор Свифт» на несколько дней. Когда пользователи искали имя музыканта, они видели уведомление о том, что произошла ошибка.

Эта ошибка модерации контента стала национальной новостью, поскольку Тейлор Свифт — это Тейлор Свифт. Но если социальные платформы не могут защитить одну из самых известных женщин мира, кого они смогут защитить?

«Если с вами произойдет то, что случилось с Тейлор Свифт, как это случилось со многими людьми, у вас, вероятно, не будет такого же уровня поддержки, основанной на влиянии, а это значит, что у вас действительно не будет доступа к сообществам «Эта информация важна». «И эти сообщества заботы — это те, к которым большинству пользователей приходится прибегать в таких ситуациях, что действительно показывает сбой модерации контента».

ЧИТАТЬ   В четвертой бета-версии Android 14 появилась функция автоматического подтверждения разблокировки

Запретить поисковый запрос «Тейлор Свифт» — это все равно, что заклеить лопнувшую трубу куском скотча. Существует множество очевидных обходных путей, например, как пользователи TikTok ищут «сегг» вместо секса. Блок поиска был чем-то, что X мог реализовать, чтобы он выглядел так, будто он что-то делает, но это не мешает людям вместо этого просто искать «t Swift». Майк Масник, основатель Института Копиа и Techdirt называется эти усилия являются «молотковой версией доверия и безопасности».

«Платформы не способны предоставить женщинам, небинарным и странным людям свободу действий в отношении своего тела, поэтому они воспроизводят системы насилия и патриархата в автономном режиме», — сказал Аре. «Если ваши системы модерации неспособны реагировать на кризис или если ваши системы модерации неспособны реагировать на потребности пользователей, когда они сообщают, что что-то не так, у нас есть проблема».

Так что же должен был сделать X, чтобы предотвратить фиаско Тейлор Свифт?

Задает эти вопросы как часть ее исследоватьи предлагает социальным платформам полностью пересмотреть методы модерации контента. Недавно она провела серию круглых столов с 45 интернет-пользователями со всего мира, пострадавшими от цензуры и злоупотреблений, чтобы предоставить платформам рекомендации по внедрению изменений.

Одна из рекомендаций заключается в том, чтобы платформы социальных сетей были более прозрачными для отдельных пользователей в отношении решений, касающихся их учетной записи или их отчетности перед другими учетными записями.

«У вас нет доступа к записи, даже если платформы имеют доступ к этому материалу – они просто не хотят обнародовать его», – сказал Аре. «Я думаю, что когда дело доходит до насилия, людям нужна более персонализированная, более контекстуальная и быстрая реакция, которая предполагает если не личную помощь, то, по крайней мере, прямое общение. »

ЧИТАТЬ   FTC предупреждает Конгресс, что технологии искусственного интеллекта, такие как ChatGPT, могут «подстегнуть» мошенничество и мошенничество

На этой неделе компания X объявила, что наймет 100 модераторов контента для работы в новом центре «Доверие и безопасность» в Остине, штат Техас. Но, с точки зрения Маска, платформа не создала сильного прецедента для защиты маргинализированных пользователей от злоупотреблений. Также может быть трудно принять Маска за чистую монету, поскольку магнат имеет долгую историю нарушения своих обещаний. Когда он впервые купил Twitter, Маск сказал, что прежде чем принимать важные решения, он сформирует совет по модерации контента. Этого не происходит.

В случае дипфейков, созданных ИИ, ответственность лежит не только на социальных платформах. Это также относится к компаниям, которые создают ориентированные на потребителя продукты генеративного ИИ.

По данным опроса, проведенного 404 МедиаОскорбительные изображения Свифта исходили от группы Telegram, занимающейся созданием откровенных дипфейков без согласия. Пользователи в группе часто используют Microsoft Designer, который черпает вдохновение из DALL-E 3 от Open AI для создания изображений на основе подсказок ввода. В лазейка Microsoft с тех пор исправила: пользователи могли создавать изображения знаменитостей, написав подсказки, такие как «Певица Тейлор Свифт» или «Актриса Дженнифер Энистон».

Шейн Джонс, старший менеджер по разработке программного обеспечения в Microsoft написал письмо Генеральному прокурору штата Вашингтон, заявив, что в декабре были обнаружены уязвимости в DALL-E 3, которые позволили ему «обойти определенные меры безопасности, предназначенные для предотвращения создания и распространения вредоносных изображений моделью».

Джонс предупредил Microsoft и OpenAI об уязвимостях, но через две недели он не получил никаких указаний на то, что проблемы решены. Поэтому он разместил открытое письмо на LinkedIn, призывая OpenAI приостановить доступность DALL-E 3. Джонс предупредил Microsoft о своем письме, но его быстро попросили удалить его.

ЧИТАТЬ   У Mastodon теперь более простой процесс регистрации

«Мы должны привлечь компании к ответственности за безопасность своей продукции и их обязанность раскрывать общественности известные риски», — написал Джонс в своем письме генеральному прокурору штата. «Пострадавших сотрудников, таких как я, не следует запугивать и заставлять хранить молчание. »

Поскольку самые влиятельные компании мира делают большие ставки на ИИ, платформы должны проявлять упреждающий подход к регулированию оскорбительного контента – но даже в эпоху, когда создавать дипфейки о знаменитостях было не так просто, агрессивное поведение легко избегало модерации.

«Это действительно показывает, что платформы ненадежны», — сказал Аре. «Маргинализированные сообщества должны доверять своим последователям и другим пользователям больше, чем людям, которые несут техническую ответственность за нашу онлайн-безопасность».

Source

От admin