Федеральная торговая комиссия начала расследование в отношении OpenAI, стартапа искусственного интеллекта, создающего ChatGPT, чтобы выяснить, наносил ли чат-бот вред потребителям путем сбора данных и публикации ложной информации о людях.

В 20-страничном письме, отправленном компании из Сан-Франциско на этой неделе, агентство сообщило, что оно также пересматривает методы обеспечения безопасности OpenAI. В своем письме FTC задала OpenAI десятки вопросов, в том числе о том, как стартап обучает свои модели ИИ и обрабатывает персональные данные, и заявила, что компания должна предоставить агентству документы и подробности.

FTC рассматривает вопрос о том, «участвовала ли OpenAI в недобросовестных или вводящих в заблуждение действиях, связанных с конфиденциальностью или безопасностью данных, или прибегала к недобросовестным или вводящим в заблуждение действиям, связанным с риском причинения вреда потребителям», — говорится в письме.

Опрос был сообщалось ранее The Washington Post и подтвердил человек, знакомый с ходом расследования. OpenAI отказался от комментариев.

Расследование FTC представляет собой первую серьезную регулятивную угрозу в Соединенных Штатах для OpenAI, одной из самых известных компаний в области искусственного интеллекта, и сигнализирует о том, что технология может стать предметом все более пристального внимания, поскольку люди, предприятия и правительства используют все больше продуктов на основе искусственного интеллекта. Быстро развивающиеся технологии забили тревогу, поскольку чат-боты могут генерировать ответы в ответ на запросы, потенциально могут заменить людей на их работе и распространять дезинформацию.

Сэм Альтман, возглавляющий OpenAI, считает, что быстрорастущую индустрию искусственного интеллекта необходимо регулировать. В мае он дал показания в Конгрессе, призывая принять закон об искусственном интеллекте, и посетил сотни законодателей, стремясь определить политическую повестку дня для этой технологии.

«Я думаю, что если эта технология пойдет не так, она может пойти не так», — сказал он на слушаниях в мае. «Мы хотим работать с правительством, чтобы этого не произошло».

ЧИТАТЬ   Менеджера уволили за то, что он «убрал член» из сисек сотрудницы на рождественской вечеринке и выиграл выплату

OpenAI уже подвергся давлению регулирующих органов на международном уровне. В марте орган по защите данных Италии запретил ChatGPT, заявив, что OpenAI незаконно собирает личные данные пользователей и не имеет системы проверки возраста, чтобы несовершеннолетние не подвергались воздействию спама и незаконных материалов. В следующем месяце OpenAI восстановила доступ к системе, заявив, что внесла изменения, запрошенные итальянскими властями.

FTC действует в отношении ИИ с заметной скоростью, начав расследование менее чем через год после того, как OpenAI представила ChatGPT. Лина Хан, председатель FTC, сказала, что технологические компании должны регулироваться, пока технологии только зарождаются, а не только тогда, когда они становятся зрелыми.

В прошлом агентство обычно начинало расследование после серьезной публичной ошибки со стороны компании, например, начала расследования политики конфиденциальности Meta после сообщения о том, что она поделилась пользовательскими данными с политической консалтинговой фирмой Cambridge Analytica в 2018 году.

Г-жа Хан, которая в четверг давала показания на слушаниях в комитете Палаты представителей по поводу практики агентств, ранее заявляла, что индустрия ИИ нуждается в тщательном изучении.

«Хотя эти инструменты являются новыми, они не освобождены от существующих правил, и Федеральная торговая комиссия будет энергично обеспечивать соблюдение законов, которые нам поручено администрировать, даже на этом новом рынке», — написала она в статье, опубликованной в New York Times в мае. . «Поскольку технологии развиваются быстро, мы уже видим несколько рисков».

Расследование может заставить OpenAI раскрыть свои методы создания ChatGPT и источники данных, которые он использует для создания своих систем искусственного интеллекта. Хотя OpenAI долгое время довольно открыто рассказывала об этой информации, в последнее время она мало говорила о том, откуда берутся данные ее систем ИИ и сколько она использует для создания ChatGPT, вероятно, потому, что опасается конкурентов, которые копируют их, и опасается судебных исков. об использовании определенных наборов данных.

ЧИТАТЬ   Войнова не собирается завершать велосипедную карьеру из-за дисквалификации

Чат-боты, которые также внедряются такими компаниями, как Google и Microsoft, представляют собой серьезный сдвиг в способах создания и использования компьютерного программного обеспечения. Они собираются заново изобрести поисковые системы в Интернете, такие как Google Search и Bing, говорящих цифровых помощников, таких как Alexa и Siri, и почтовые службы, такие как Gmail и Outlook.

Когда OpenAI выпустила ChatGPT в ноябре, он мгновенно покорил общественное воображение своей способностью отвечать на вопросы, писать стихи и шутить практически на любую тему. Но технологии также могут смешивать факты с вымыслом и даже придумывать информацию — явление, которое ученые называют «галлюцинациями».

ChatGPT управляется тем, что исследователи ИИ называют нейронной сетью. Это та же технология, которая осуществляет перевод между французским и английским языками в таких сервисах, как Google Translate, и идентифицирует пешеходов как беспилотные автомобили, перемещающиеся по городским улицам. Нейронная сеть обучается навыкам, анализируя данные. Например, обнаружив закономерности на тысячах фотографий кошек, он может научиться узнавать кошку.

Исследователи из таких лабораторий, как OpenAI, разработали нейронные сети, которые анализируют большие объемы цифрового текста, включая статьи Википедии, книги, новости и журналы онлайн-чатов. Эти системы, известные как большие языковые модели, научились генерировать текст самостоятельно, но могут повторять дезинформацию или комбинировать факты таким образом, что получается неточная информация.

В марте Центр искусственного интеллекта и цифровой политики, группа по защите этического использования технологий, попросила Федеральную торговую комиссию запретить OpenAI выпускать новые коммерческие версии ChatGPT, сославшись на опасения по поводу предвзятости, дезинформации и безопасности.

Организация обновила жалобу менее недели назад, указав другие способы, которыми чат-бот может причинить вред, на что также указал OpenAI.

«Сама компания осознала риски, связанные с выпуском продукта, и сама призвала к регулированию», — сказал Марк Ротенберг, президент и основатель Центра искусственного интеллекта и цифровой политики. «Федеральная торговая комиссия должна действовать».

ЧИТАТЬ   Поужинайте в ресторане или вне дома с электронной подарочной картой Restaurant.com на 100 долларов, которая продается за 11 долларов.

OpenAI работал над улучшением ChatGPT и снижением частоты предвзятого, ложного или иного вредоносного контента. Когда сотрудники и другие тестировщики используют систему, компания просит их оценить полезность и достоверность ее ответов. Затем с помощью метода, называемого обучением с подкреплением, он использует эти рейтинги для дальнейшего определения того, что чат-бот будет делать, а что нет.

Это развивающая история. Следите за обновлениями.

Source

От admin