Представьте себе, что вы входите в свой самый ценный бизнес-инструмент, когда приходите на работу, и вас встречает вот это:

“ChatGPT отключен для пользователей в Италии

Уважаемый клиент ChatGPT,

С сожалением сообщаем, что мы отключили ChatGPT для пользователей в Италии по запросу итальянского Garante.

Скриншот OpenAI, апрель 2023 г.

OpenAI отправил это сообщение итальянским пользователям после расследование Гарантом защиты персональных данных. Гарант цитируется конкретные нарушения следующим образом:

  • OpenAI не смогла должным образом проинформировать пользователей о том, что собирает личные данные.
  • OpenAI не предоставил законных оснований для сбора личной информации для обучения своего алгоритма.
  • ChatGPT неточно обрабатывает личную информацию, не используя реальные факты.
  • OpenAI не просит пользователей подтверждать свой возраст, хотя контент, созданный ChatGPT, предназначен для пользователей. старше 13 лет лет и требует согласия родителей для лиц моложе 18 лет.

Действительно, целая страна потеряла доступ к широко используемой технологии, потому что ее правительство обеспокоено тем, что личные данные могут быть неправильно обработаны другой страной, и что эта технология может быть небезопасной для более молодой аудитории.

Дилетта ДеЧиккоЮрист по вопросам конфиденциальности данных, кибербезопасности и цифровых активов Squire Patton Boggs из Милана сказал:

«Неудивительно, что решение Garante было принято сразу после того, как утечка данных затронула разговоры пользователей и данные, предоставленные OpenAI.

Это также происходит в то время, когда генеративный ИИ быстро становится мейнстримом (а не просто внедряется технически подкованными пользователями).

Несколько более удивительно то, что хотя в итальянском пресс-релизе упоминается недавний инцидент с нарушением правил, в итальянском решении об оправдании временного запрета, основанном на: неточности данных, отсутствии информации для пользователей и людей в целом, об этом нет упоминания. отсутствие проверки возраста для детей и отсутствие правовой основы для обучения данных.

Хотя OpenAI LLC работает в США, она должна соответствовать итальянскому законодательству. Код защиты персональных данных потому что он обрабатывает и хранит личную информацию пользователей в Италии.

ЧИТАТЬ   Дебютный роман этого фармацевта из Лос-Анджелеса наполнен сексом и наркотиками. Не говорите его боссу

Кодекс защиты персональных данных был основным итальянским законом, касающимся защиты личных данных, до тех пор, пока Европейский Союз не принял Общий регламент по защите данных (GDPR) в 2018 году. Итальянский закон был обновлен, чтобы соответствовать GDPR.

Что такое GDPR?

GDPR был введен с целью защиты конфиденциальности личной информации в ЕС. Организации и компании, работающие в ЕС, должны соблюдать правила GDPR в отношении обработки, хранения и использования персональных данных.

Если организации или компании необходимо обрабатывать личную информацию итальянского пользователя, она должна соблюдать как Итальянский кодекс защиты персональных данных, так и GDPR.

Как ChatGPT может нарушить правила GDPR?

Если OpenAI не сможет доказать свою правоту против итальянского Garante, это может привести к дополнительной проверке на предмет нарушения рекомендаций GDPR в отношении следующего:

  • Магазины ChatGPT пользовательский ввод – которые могут содержать личную информацию пользователей из ЕС (в рамках процесса ее формирования).
  • Открытый ИИ позволяет тренерам для просмотра разговоров ChatGPT.
  • OpenAI позволяет пользователям удалять свои учетные записи, но говорит, что они не могут удалять определенные подсказки. Он отмечает, что пользователи не должны делиться конфиденциальной личной информацией в разговорах ChatGPT.

OpenAI предоставляет правовые основания для обработки личной информации пользователей из Европейской экономической зоны (в которую входят страны ЕС), Великобритании и Швейцарии в Разделе 9 Политики конфиденциальности.

Страница «Условия использования» определяет содержание в качестве ввода (ваша подсказка) и вывода (генеративный ответ ИИ). Каждый пользователь ChatGPT имеет право использовать контент, созданный с помощью инструментов OpenAI, в личных и коммерческих целях.

ЧИТАТЬ   ChatGPT теперь может найти вам дом

OpenAI информирует пользователей API OpenAI о том, что службы, использующие персональные данные жителей ЕС, должны соответствовать GDPR, CCPA и применимым местным законам о конфиденциальности для своих пользователей.

По мере развития каждого ИИ генерируемый контент ИИ может содержать пользовательский ввод как часть его обучающих данных, которые могут включать личную конфиденциальную информацию от пользователей со всего мира.

Рафи Азим ХанГлобальный руководитель отдела законодательства о конфиденциальности данных и маркетинге Pillsbury Winthrop Shaw Pittman LLP сказал:

«Недавние законы, предложенные в Европе (Закон об искусственном интеллекте), привлекли внимание, но часто может быть ошибкой игнорировать другие уже действующие законы, которые могут применяться, такие как GDPR.

Принудительные действия итальянского регулятора против OpenAI и ChatGPT на этой неделе напомнили всем, что такие законы, как GDPR, влияют на использование ИИ.

Азим-Хан также указал на потенциальные проблемы с источниками информации и данными, используемыми для генерации ответов ChatGPT.

«Некоторые результаты ИИ показывают ошибки, поэтому есть опасения по поводу качества данных, извлекаемых из Интернета и/или используемых для обучения технологии», — отметил он. «GDPR дает людям право исправлять ошибки (как и CCPA/CPRA в Калифорнии)».

А как же ЦСКА?

OpenAI решает вопросы конфиденциальности для пользователей из Калифорнии в пятом разделе своего политика конфиденциальности.

Он раскрывает информацию, передаваемую третьим сторонам, включая аффилированные лица, поставщиков, поставщиков услуг, правоохранительные органы и стороны, участвующие в работе с продуктами OpenAI.

Эта информация включает в себя контактную информацию пользователя и информацию для входа в систему, сетевую активность, контент и данные геолокации.

Как это может повлиять на использование Microsoft в Италии и ЕС?

Чтобы решить проблемы конфиденциальности данных и GDPR, Microsoft создала Центр доверия.

ЧИТАТЬ   Поначалу дизайнеры ненавидели инструмент для совместной разработки Figma, но в итоге полюбили его.

Пользователи Майкрософт могут узнать больше о том, как используются их данные, на Службы Майкрософтвключая Бинг и Microsoft Copilot, работающие на технологии OpenAI.

Стоит ли беспокоиться пользователям генеративного ИИ?

«Суть в том, что [the Italian Garante case] может быть верхушкой айсберга, поскольку другие руководители более внимательно изучают модели ИИ», — говорит Азим-Хан.

«Будет интересно посмотреть, что сделают другие европейские органы по защите данных», если они сразу же последуют за Garante или, скорее, займут выжидательную позицию», — добавляет Де Чикко. «Можно было бы надеяться увидеть совместный ответ ЕС на такой социально чувствительный вопрос».

Если итальянская компания Garante выиграет дело, другие правительства могут начать расследование других технологий, в том числе аналогов и конкурентов ChatGPT, таких как Google Bard, чтобы выяснить, не нарушают ли они аналогичные правила безопасности данных для личной и молодой аудитории.

«За итальянским запретом могут последовать и другие», — говорит Азим-Хан. Как минимум, мы можем увидеть, как разработчикам ИИ приходится удалять огромные наборы данных и переобучать своих ботов.


Избранное изображение: pcruciatti/Shutterstock



Source

От admin