Массивный взрыв Генеративные модели ИИ для текста и изображений в последнее время стали одним из основных продуктов. Поскольку эти модели становятся все более и более функциональными, «базовая модель» — это относительно новый термин, который используется повсюду. Так что же такое базовая модель?
Термин остается немного расплывчатым. Одни определяют ее количеством параметров и, следовательно, размером нейронной сети, другие — количеством уникальных и сложных задач, которые может выполнять модель. Действительно ли создание ИИ-моделей все больше и больше, а способность модели решать несколько задач — это так интересно? Если отбросить всю шумиху и маркетинговый язык, то самое интересное в этих новых поколениях моделей ИИ заключается в следующем: они коренным образом изменили то, как мы взаимодействуем с компьютерами и данными. Рассмотрим такие компании, как Cohere, Covariant, Hebbia и You.com.
Сейчас мы вступили в критическую фазу ИИ, когда важным предметом обсуждения стал вопрос о том, кто может создавать и обслуживать эти мощные модели, особенно когда начинают возникать этические вопросы, например, кто имеет право на какие данные, нарушают ли шаблоны разумные предположения о конфиденциальности. , является ли согласие на использование данных фактором, что представляет собой «ненадлежащее поведение» и многое другое. Учитывая такие вопросы, разумно предположить, что те, кто контролирует модели ИИ, могут быть самыми важными лицами, принимающими решения в наше время.
Есть ли игра для моделей с открытым исходным кодом?
Из-за этических проблем, связанных с ИИ, потребность в моделях с открытым исходным кодом растет. Но строить модели фундамента недешево. Им требуются десятки тысяч современных графических процессоров и множество инженеров и ученых по машинному обучению. Сфера создания базовых моделей на сегодняшний день была доступна только облачным гигантам и чрезвычайно хорошо финансируемым стартапам, располагающим военным сундуком в сотни миллионов долларов.
Почти все модели и услуги, созданные этими несколькими компаниями, выбранными самостоятельно, были закрыты. Тем не менее, закрытые источники доверяют огромную власть и решения ограниченному числу компаний, которые будут определять наше будущее, что может быть весьма дестабилизирующим.
Мы вступили в критическую фазу ИИ, когда важным предметом обсуждения стал вопрос о том, кто может создавать и обслуживать эти мощные модели.
Однако открытый исходный код стабильной диффузии Stability AI представлял серьезную угрозу для создателей моделей фундамента, решивших сохранить весь соус в секрете для себя. Сообщества разработчиков по всему миру приветствовали открытый исходный код Stability, поскольку он освобождает системы, передавая контроль в руки масс, а не некоторых компаний, которые могут быть больше заинтересованы в прибыли, чем в благе для человечества. Теперь это влияет на то, как инсайдеры думают о текущей парадигме систем искусственного интеллекта с закрытым исходным кодом.
Потенциальные барьеры
Самым большим препятствием для моделей фонда открытых закупок по-прежнему остаются деньги. Чтобы системы искусственного интеллекта с открытым исходным кодом были прибыльными и устойчивыми, им по-прежнему требуются десятки миллионов долларов для надлежащей эксплуатации и управления. Хотя это лишь малая часть того, что крупные компании инвестируют в свои начинания, для стартапа это все же весьма существенно.
Мы видим, что попытка Stability AI открыть Neo-GPT и превратить его в настоящий бизнес не удалась, поскольку ее превзошли такие компании, как Open AI и Cohere. Теперь компания должна приспособиться к иску Getty Images, который угрожает отвлечь компанию и еще больше истощить ее ресурсы, как финансовые, так и человеческие. Противодействие Meta системам с закрытым исходным кодом через LLaMA придало движению за открытый исходный код некоторый импульс, но еще слишком рано говорить, будут ли они продолжать выполнять свои обязательства.