В головокружительной гонке за создание генеративных систем искусственного интеллекта мантра технологической отрасли гласит: «Чем больше, тем лучше», независимо от стоимости.

Сегодня технологические компании начинают внедрять более мелкие, менее мощные, но гораздо менее дорогие технологии искусственного интеллекта. И для многих клиентов это может стать хорошим компромиссом.

Во вторник Microsoft представила три меньшие модели искусственного интеллекта, которые являются частью семейства технологий, которое компания назвала Phi-3. Компания заявила, что даже самый маленький из трех работает почти так же хорошо, как GPT-3.5, гораздо более крупная система, которая легла в основу чат-бота OpenAI ChatGPT, когда он ошеломил мир, когда был выпущен в конце 2022 года.

Меньшая модель Phi-3 может поместиться на смартфоне и, следовательно, ее можно использовать, даже если он не подключен к Интернету. И он может работать на чипах, которые используются в классических компьютерах, а не на более дорогих процессорах Nvidia.

Поскольку модели меньшего размера требуют меньше обработки, более крупные поставщики технологий могут взимать с клиентов меньшую плату за их использование. Они надеются, что это будет означать, что больше клиентов смогут применять ИИ в тех местах, где использование более крупных и продвинутых моделей было слишком дорогим. Хотя Microsoft заявила, что использование новых моделей будет «значительно дешевле», чем использование более крупных моделей, таких как GPT-4, она не предоставила подробностей.

Меньшие системы менее мощны, а это значит, что они могут быть менее точными или звучать более отвлекающе. Но Microsoft и другие технологические компании делают ставку на то, что клиенты будут готовы отказаться от некоторой производительности, если это означает, что они наконец смогут позволить себе ИИ.

Клиенты представляют себе множество способов использования ИИ, но в случае с более крупными системами «они говорят: «О, но вы знаете, они могут быть немного дорогими», — сказал Эрик Бойд, руководитель Microsoft. По его словам, модели меньшего размера практически по определению дешевле в развертывании.

ЧИТАТЬ   Twitter запускает зашифрованные DM за платным доступом

Г-н Бойд сказал, что некоторые клиенты, такие как врачи или налоговые инспекторы, могут оправдать затраты на более крупные и точные системы искусственного интеллекта, потому что их время очень ценно. Но многие задачи не обязательно требуют одинакового уровня точности. Интернет-рекламодатели, например, считают, что они могут лучше таргетировать свою рекламу с помощью ИИ, но им нужны более низкие затраты, чтобы иметь возможность регулярно использовать системы.

«Я хочу, чтобы мой врач сделал все правильно», — сказал г-н Бойд. «В других ситуациях, когда я суммирую отзывы пользователей в Интернете, если это немного не так, это не конец света».

Чат-боты управляются большими языковыми моделями, или LLM, математическими системами, которые тратят недели на анализ электронных книг, статей в Википедии, новостных статей, журналов чатов и другого текста, полученного из Интернета. Выявляя закономерности в этом тексте, они учатся генерировать текст самостоятельно.

Но LLM хранят так много информации, что извлечение необходимой информации для каждого разговора требует значительных вычислительных мощностей. И это дорого.

Хотя технологические гиганты и стартапы, такие как OpenAI и Anthropic, сосредоточились на совершенствовании более крупных систем искусственного интеллекта, они также конкурируют за разработку меньших моделей по более низким ценам. Например, Meta и Google за последний год выпустили модели меньшего размера.

Meta и Google также «открывают исходный код» этих шаблонов, что означает, что каждый может использовать и изменять их бесплатно. Это обычный способ для компаний получить внешнюю помощь для улучшения своего программного обеспечения и побудить отрасль в целом использовать их технологии. Microsoft также представляет свои новые модели Phi-3.

(В декабре The New York Times подала в суд на OpenAI и Microsoft за нарушение авторских прав на новостной контент, связанный с системами искусственного интеллекта.)

ЧИТАТЬ   Обзор One Day: это самое горячее шоу года, в котором появятся две новые звезды, пишет КЛАУДИЯ КОННЕЛЛ

После того, как OpenAI выпустила ChatGPT, Сэм Альтман, генеральный директор компании, сказал, что стоимость каждого чата составила «однозначные центы» – огромные расходы, учитывая, что популярные веб-сервисы, такие как Википедия, предлагают за крошечную долю цента.

Теперь исследователи говорят, что их меньшие модели могут, по крайней мере, приблизиться по производительности к ведущим чат-ботам, таким как ChatGPT и Google Gemini. По сути, системы по-прежнему могут анализировать большие объемы данных, но сохраняют выявленные ими закономерности в меньшем пакете, который можно использовать с меньшей вычислительной мощностью.

Создание этих моделей — это компромисс между мощностью и размером. Себастьен Бубек, исследователь и вице-президент Microsoft, сказал, что компания создала свои новые, меньшие по размеру модели, усовершенствовав вводимые в них данные, гарантируя, что модели обучаются на основе текста более высокого качества.

Часть этого текста была сгенерирована самим ИИ — так называемые «синтетические данные». Затем кураторы-люди поработали над тем, чтобы отделить самый передовой текст от остальных.

Microsoft создала три разные небольшие модели: Phi-3-mini, Phi-3-small и Phi-3-medium. Phi-3-mini, который поступит в продажу во вторник, является самым маленьким (и дешевым), но и наименее мощным. Phi-3 Medium, которого еще нет в продаже, является самым мощным, но самым большим и дорогим.

Если сделать системы настолько маленькими, что их можно будет установить непосредственно на телефон или персональный компьютер, «сделает их намного быстрее и намного дешевле», — сказал Гил Лурия, аналитик инвестиционного банка DA Davidson.



Source

От admin