«Бег с ножницами — это кардиоупражнение, которое может увеличить частоту сердечных сокращений и требует сосредоточенности и концентрации», — говорит новая функция поиска Google с использованием искусственного интеллекта. «Некоторые говорят, что это также может улучшить ваши поры и придать вам силы».

Функция искусственного интеллекта Google извлекла этот ответ с веб-сайта под названием комедия «Маленькая старушка», который, как следует из названия, представляет собой юмористический блог. Но эта оплошность настолько нелепа, что распространяется в социальных сетях вместе с другими явно неверными обзорами ИИ в Google. Действительно, ежедневные пользователи теперь связывают эти продукты с социальными сетями.

В сфере кибербезопасности некоторые компании нанимают «красные команды» — этических хакеров, — которые пытаются взломать их продукты, как если бы они были злоумышленниками. Если красная команда обнаружит уязвимость, компания может исправить ее перед отправкой продукта. Google, безусловно, провел своего рода «красную команду» перед запуском продукта искусственного интеллекта в поиске Google, который оцененный обрабатывать миллиарды запросов в день.

Поэтому удивительно, что компания со значительными ресурсами, такая как Google, продолжает выпускать продукты с очевидными недостатками. Вот почему сейчас принято шутить по поводу неудач продуктов ИИ, особенно в эпоху, когда ИИ становится все более и более повсеместным. Мы видели это по неправильным написаниям в ChatGPT, неспособности видеогенераторов понять как люди едят спагеттиИ Грок А.И. сводки новостей о X, которые, как и Google, не понимают сатиру. Но на самом деле эти мемы могут послужить полезной обратной связью для компаний, разрабатывающих и тестирующих ИИ.

Несмотря на громкий характер этих нарушений, технологические компании часто преуменьшают их влияние.

«Примеры, которые мы видели, как правило, представляют собой очень редкие запросы и не отражают опыт большинства людей», — сообщил Google TechCrunch в заявлении, отправленном по электронной почте. «Перед запуском нового эксперимента мы провели обширное тестирование и будем использовать эти отдельные примеры для дальнейшего совершенствования наших систем в целом».

ЧИТАТЬ   В «Человеке-пауке 2» от Marvel есть Майлз с перепончатыми крыльями и Питер в костюме симбиота

Не все пользователи видят одинаковые результаты от ИИ, и к тому времени, когда распространяется особенно плохое предложение по ИИ, проблема часто уже решена. В более недавнем случае, который стал вирусным, Google предположил, что если вы готовите пиццу, но сыр не прилипает, вы можете добавить в соус примерно восьмую часть стакана клея, чтобы «придать ему больше липкости». Оказалось, что этот ответ ИИ извлек из комментарий одиннадцатилетней давности на Reddit от пользователя с именем «f––smith».

Это не только невероятная ошибка, но и указывает на то, что цены на предложения ИИ-контента могут быть завышены. У Google есть Контракт на 60 миллионов долларов с Reddit, чтобы лицензировать свой контент, например, для обучения моделей ИИ. Reddit подписал аналогичное соглашение с OpenAI на прошлой неделе, а ресурсы Automattic WordPress.org и Tumblr слух ведут переговоры о продаже данных Midjourney и OpenAI.

Следует признать, что многие ошибки, циркулирующие в социальных сетях, происходят из-за нетрадиционных исследований, призванных сбить с толку ИИ. По крайней мере, я надеюсь, что никто всерьез не ищет «пользу для здоровья от бега с ножницами». Но некоторые из этих ошибок более серьезны. Научный журналист Эрин Росс Опубликовано что Google выдает неверную информацию о том, что делать, если вас укусила гремучая змея.

Пост Росса, получивший более 13 000 лайков, показывает, что ИИ рекомендовал наложить на рану жгут, разрезать рану и высосать яд. В соответствии с Лесная служба СШАЭто все, что вам следует нет сделать, если тебя укусили. Тем временем на Bluesky автор Ти Кингфишер расширил пост, в котором изображены Google Gemini. ошибиться в определении ядовитого гриба как обыкновенный шампиньон – скриншоты поста есть распространяемый на другие платформы в качестве предупреждения.

ЧИТАТЬ   Арестованы два человека, которые продавали золотые монеты 1876 года выпуска за 145 тысяч долларов.

Когда плохой ответ ИИ становится вирусным, ИИ может быть еще больше сбит с толку новым контентом по полученной теме. В среду репортер New York Times Арик Толер опубликовал скриншот на который показывает запрос, спрашивающий, играла ли когда-нибудь собака в НХЛ. Ответ ИИ был утвердительным – по какой-то причине ИИ назвал игрока «Калгари Флэймз» Мартина Поспишила собакой. Теперь, когда вы делаете тот же запрос, ИИ извлекает статью из ежедневное обновление о том, как ИИ Google продолжает думать, что собаки занимаются спортом. ИИ питается собственными ошибками, которые отравляют его еще больше.

Это основная проблема обучения крупномасштабных моделей ИИ в Интернете: иногда люди лгут. Но так же, как есть нет правил, запрещающих собаке играть в баскетболк сожалению, не существует правил, запрещающих крупным технологическим компаниям поставлять плохие продукты искусственного интеллекта.

Как говорится: мусор на входе, мусор на выходе.



Source

От admin