Когда в ближайшие месяцы Верховный суд США решит ослабить мощный щит, защищающий интернет-бизнес, это решение также может иметь последствия для быстро развивающихся технологий, таких как чат-бот с искусственным интеллектом ChatGPT.

К концу июня судьи должны принять решение о том, можно ли подать в суд на YouTube, принадлежащий Alphabet, из-за его видеорекомендаций пользователям. Этот случай проверяет, применяется ли закон США, который защищает технологические платформы от юридической ответственности за контент, размещенный в Интернете их пользователями, когда компании используют алгоритмы для целевых пользователей с рекомендациями.

Решение суда по этим вопросам актуально не только для социальных сетей. Его решение может повлиять на возникающие дебаты о том, должны ли компании, разрабатывающие генеративные чат-боты с искусственным интеллектом, такие как ChatGPT OpenAI, компания, в которой Microsoft является крупным инвестором, или Google Bard от Alphabet, быть защищены от юридических действий, таких как клевета или нарушение конфиденциальности, в соответствии с технологией. и юристы.

Эксперты добавили, что алгоритмы, лежащие в основе генерирующих инструментов искусственного интеллекта, таких как ChatGPT и его преемник GPT-4, работают примерно так же, как те, которые предлагают видео пользователям YouTube.

«На самом деле дискуссия идет о том, настолько ли важна организация информации, доступной в Интернете через рекомендательные механизмы, для формирования контента, что она становится ответственной за него», — сказал Кэмерон Керри, приглашенный научный сотрудник аналитического центра Брукингского института в Вашингтоне и эксперт в области искусственного интеллекта. . «У вас такие же проблемы с чат-ботом».

Представители OpenAI и Google не ответили на запросы о комментариях.

Во время устных прений в феврале судьи Верховного суда выразили неуверенность в том, стоит ли ослаблять защиту, закрепленную в статуте, известную как раздел 230 Закона о приличии в коммуникациях 1996 года. Хотя дело не имеет прямого отношения к генеративному ИИ, судья Нил Горсуч отметил, что инструменты ИИ, которые генерируют «поэзию» и «споры», скорее всего, не выиграют от такой правовой защиты.

ЧИТАТЬ   Чижик-Пыжик спас упавшего человека на Фонтанке

Этот случай является лишь одним из аспектов назревающего разговора о том, должен ли иммунитет согласно Разделу 230 применяться к моделям ИИ, обученным на большом количестве существующих онлайн-данных, но способным создавать оригинальные работы.

Средства защиты Раздела 230 обычно применяются к стороннему контенту от пользователей технологической платформы, а не к информации, которую компания помогла разработать. Судам еще предстоит определить, будет ли подпадать под действие ответ чат-бота с искусственным интеллектом.

«ПОСЛЕДСТВИЯ СВОИХ ДЕЙСТВИЙ»

Сенатор-демократ Рон Уайден, который участвовал в разработке этого закона, находясь в Палате представителей, сказал, что защита ответственности не должна применяться к генеративным инструментам искусственного интеллекта, потому что эти инструменты «создают контент».

«Раздел 230 касается защиты пользователей и сайтов, размещающих и организующих речь пользователей. Он не должен защищать компании от последствий их собственных действий и продуктов», — говорится в заявлении Уайдена агентству Reuters.

Технологическая индустрия настаивала на сохранении Раздела 230, несмотря на двухпартийное сопротивление иммунитету. Они сказали, что такие инструменты, как ChatGPT, работают как поисковые системы, направляя пользователей к существующему контенту в ответ на запрос.

«ИИ на самом деле ничего не создает. Он берет существующий контент и помещает его в другой способ или формат», — сказал Карл Сабо, вице-президент и главный юрисконсульт NetChoice, бизнес-группы технологической отрасли.

Сабо сказал, что ослабление Раздела 230 станет невыполнимой задачей для разработчиков ИИ, угрожая подвергнуть их потоку судебных разбирательств, которые могут задушить инновации.

Некоторые эксперты предсказывают, что суды могут занять золотую середину, изучив контекст, в котором модель ИИ вызвала потенциально опасный ответ.

В тех случаях, когда модель ИИ перефразирует существующие источники, щит все равно может применяться. Но известно, что чат-боты, такие как ChatGPT, создают поддельные ответы, которые кажутся не связанными с информацией, найденной где-либо еще в Интернете, и, по словам экспертов, вряд ли удастся защитить эту ситуацию.

ЧИТАТЬ   Сан-Франциско потрясло 3 землетрясения, так как местный житель «трясет» кроватью

Хани Фарид, технолог и профессор Калифорнийского университета в Беркли, сказал, что трудно представить, что разработчики ИИ должны быть защищены от судебных исков из-за моделей, которые они «запрограммировали, обучили и внедрили».

«Когда компании привлекаются к гражданской ответственности за вред, причиненный производимой ими продукцией, они производят более безопасную продукцию», — сказал Фарид. «И когда они не привлечены к ответственности, они производят менее безопасные продукты».

Дело, рассматриваемое Верховным судом, связано с апелляцией семьи Нохеми Гонсалеса, 23-летнего калифорнийского студента, который был застрелен во время беспорядков исламистских боевиков в Париже в 2015 году, против увольнения судом низшей инстанции его дела. семья. иск против ютуба.

В иске Google обвиняется в оказании «материальной поддержки» терроризму и утверждается, что YouTube с помощью алгоритмов платформы для обмена видео незаконно рекомендовал некоторым пользователям видео группировки боевиков «Исламского государства», взявшей на себя ответственность за теракты в Париже.

© Томсон Рейтер, 2023 г.


Партнерские ссылки могут создаваться автоматически — подробности см. в нашем заявлении об этике.

Source

От admin