Samsung Electronics запрещает сотрудникам использовать популярные генеративные инструменты искусственного интеллекта, такие как ChatGPT, после того, как было обнаружено, что сотрудники загружают конфиденциальный код на платформу, ограничивая распространение этой технологии на рабочем месте.

Компания из Сувона, Южная Корея, проинформировала сотрудников одного из своих крупнейших подразделений о новой политике в понедельник в служебной записке, рассмотренной Bloomberg News. Компания обеспокоена тем, что данные, передаваемые на эти платформы искусственного интеллекта, включая Google Bard и Bing, хранятся на внешних серверах, что затрудняет их извлечение и удаление и может в конечном итоге попасть к третьим лицам и другим пользователям, в зависимости от документа.

В прошлом месяце компания провела опрос об использовании инструментов искусственного интеллекта внутри компании и сообщила, что 65% респондентов считают, что эти сервисы представляют угрозу безопасности. Согласно меморандуму, ранее в апреле инженеры Samsung случайно утекли внутренний исходный код, загрузив его в ChatGPT. Неясно, о чем идет речь, и представитель Samsung отказался от комментариев.

«Интерес к генеративным платформам искусственного интеллекта, таким как ChatGPT, вырос как внутри компании, так и за ее пределами», — сообщили сотрудникам Samsung. «Хотя этот интерес сосредоточен на полезности и эффективности этих платформ, также растет обеспокоенность по поводу рисков безопасности, связанных с генеративным ИИ».

Samsung — последняя крупная компания, которая беспокоится о технологиях. В феврале, всего через несколько месяцев после того, как сервис чат-ботов OpenAI вызвал бурный интерес к этой технологии, некоторые банки Уолл-Стрит, в том числе JPMorgan Chase, Bank of America и Citigroup, запретили или ограничили его использование. Италия также запретила использование ChatGPT из соображений конфиденциальности, хотя в последние дни изменила свою позицию.

ЧИТАТЬ   Boult Striker Plus с Bluetooth-звонками дебютирует в Индии по этой цене

Новые правила Samsung запрещают использование систем генеративного ИИ на принадлежащих компании компьютерах, планшетах и ​​телефонах, а также во внутренних сетях. Они не влияют на устройства компании, продаваемые потребителям, такие как смартфоны Android и ноутбуки Windows.

Samsung попросила сотрудников, которые используют ChatGPT и другие инструменты на личных устройствах, не предоставлять информацию, связанную с компанией, или личные данные, которые могут раскрыть ее интеллектуальную собственность. Он предупредил, что нарушение новой политики может привести к увольнению.

«Мы просим вас строго соблюдать наши правила безопасности, и невыполнение этого требования может привести к нарушению или компрометации информации о компании, что приведет к дисциплинарным мерам вплоть до увольнения», — говорится в служебной записке Samsung.

Тем временем компания создает собственные инструменты искусственного интеллекта для перевода и синтеза документов, а также для разработки программного обеспечения. Он также работает над тем, чтобы заблокировать загрузку конфиденциальной информации компании во внешние службы. В прошлом месяце ChatGPT добавил режим «инкогнито», который позволяет пользователям запретить использование своих чатов для обучения моделей ИИ.

«Штаб-квартира пересматривает меры безопасности, чтобы создать безопасную среду для безопасного использования генеративного ИИ для повышения производительности и эффективности сотрудников», — говорится в служебной записке. «Однако, пока эти меры не будут готовы, мы временно ограничиваем использование генеративного ИИ».

© 2023 Блумберг ЛП


Vivo X90 Pro наконец-то дебютировал в Индии, но достаточно ли обновлен флагманский смартфон компании на 2023 год по сравнению с предшественником? Мы обсуждаем это и многое другое в Orbital, подкасте Gadgets 360. Orbital доступен по адресу Спотифай, Гаана, ДжиоСаавн, Подкасты Google, подкаст Apple, Амазонская музыка и везде, где вы получаете свои подкасты.
Партнерские ссылки могут создаваться автоматически — подробности см. в нашем заявлении об этике.

Source

От admin