Google приостановила способность своего инструмента Gemini AI (ранее Bard) генерировать изображения людей. Компания также принесла извинения после того, как инструмент создал исторически неточные иллюстрации, в том числе изображения нацистских солдат как цветных людей.

СМОТРИТЕ ТАКЖЕ:

Google анонсирует Gemini 1.5, яркое обновление своей флагманской модели искусственного интеллекта

Как сообщает The Verge, ряд различных сообщений заставил бота ответить с историческими неточностями. Цветные люди были бы показано на иллюстрациях предлагались для вопросов о немецких солдатах в 1943 году, а также для запросов на презентации от сенаторов США в 1800-х годах.

«Мы уже работаем над решением недавних проблем с функцией генерации изображений Gemini», — заявил Google в сообщении.

В более раннем заявлении Google подтвердил, что ИИ-изображения Gemini генерируют широкий круг людей.

«В целом это хорошая вещь, потому что ею пользуются люди во всем мире», — заявили в Google. «Но здесь он промахивается».

Было обнаружено, что генераторы изображений ИИ увековечивать расистские стереотипыи один из Принципы искусственного интеллекта Google заключается в том, чтобы «избегать создания или усиления несправедливых предрассудков». Но, как отметил в X Джек Кравчик, работающий над «Близнецами», «исторический контекст более нюансирован».

«В рамках наших принципов искусственного интеллекта мы разрабатываем возможности создания изображений, отражающие нашу глобальную базу пользователей, и мы серьезно относимся к представительству и предвзятости», — написал Кравзик. «Мы продолжим делать это для открытых подсказок».



Source

ЧИТАТЬ   Российские силы нанесли ночные удары беспилотниками по Киеву

От admin