Изображения, созданные с помощью искусственного интеллекта, можно использовать для создания произведений искусства, примерки одежды в виртуальных примерочных или помощи в разработке рекламных кампаний.
Но эксперты опасаются, что темная сторона этих легкодоступных инструментов может усугубить то, что в первую очередь вредит женщинам: фальшивую порнографию без согласия.
Поддельные изображения — это те, которые были созданы или изменены в цифровом виде с использованием искусственного интеллекта. Порнография, созданная с помощью этой технологии, начала распространяться по Интернету несколько лет назад, когда пользователь Reddit поделился клипами, на которых лица знаменитостей были помещены на плечи порноактеров.
С тех пор создатели дипфейков распространяли похожие видео и изображения, нацеленные на интернет-лидеров мнений, журналистов и других лиц с общедоступными профилями. Есть тысячи видео на огромном количестве веб-сайтов. А некоторые предложили пользователям возможность создавать свои собственные изображения, по сути позволяя любому превращать кого-либо в сексуальные фантазии без их согласия или использовать технологии, чтобы причинить вред своим бывшим.
Эксперты говорят, что проблема усугубилась по мере того, как стало проще создавать сложные и визуально привлекательные дипфейки. И они говорят, что ситуация может ухудшиться с развитием генеративных инструментов искусственного интеллекта, которые обучаются на миллиардах изображений из Интернета и выдают новый контент, используя существующие данные.
«Реальность такова, что технологии будут продолжать распространяться, они будут продолжать расти, и это будет так же просто, как нажать кнопку», — сказал Адам Додж, основатель EndTAB, группы, которая проводит обучение по разрешенным злоупотреблениям с помощью технологий.
Между тем, некоторые модели ИИ говорят, что они уже ограничивают доступ к явным изображениям.
OpenAI утверждает, что удалил явный контент из данных, используемых для обучения инструмента обработки изображений DALL-E, что ограничило возможности пользователей создавать такие изображения. Компания также фильтрует запросы и заявляет, что не позволяет пользователям создавать искусственные изображения знаменитостей и видных политиков. Midjourney, еще одна модель, блокирует использование определенных ключевых слов и поощряет пользователей сообщать модераторам о проблемных изображениях.
Между тем, стартап Stability AI в ноябре выпустил обновление, которое лишает возможности создавать явные образы с помощью конструктора образов Stable Diffusion. Изменения произошли после сообщений о том, что некоторые пользователи создавали обнаженные изображения, вдохновленные знаменитостями, с помощью технологий.