Битва ста моделей в AI-индустрии: от академических задач к инженерным проблемам
В прошлом месяце в индустрии ИИ развернулась битва на тему животных.
С одной стороны, это Llama, выпущенный Meta, который благодаря своей открытой природе пользуется большой популярностью среди сообщества разработчиков. Японская электротехническая компания (NEC) после изучения статьи и исходного кода Llama быстро разработала японскую версию ChatGPT, что решило проблему развития ИИ в Японии.
Другой стороной является большая модель под названием Falcon. В мае этого года появилась Falcon-40B, которая превзошла Llama и заняла первое место в "рейтинге открытых LLM". Этот рейтинг составлен сообществом открытых моделей и предоставляет стандарты для оценки возможностей LLM. В основном, рейтинг представляет собой чередование Llama и Falcon на первом месте.
После выхода Llama 2 семья Llama временно занимает лидирующие позиции; но к началу сентября Falcon выпустил версию 180B и снова занял более высокие позиции.
Интересно, что разработчики Falcon являются Институтом научных инноваций в Абу-Даби, столице Объединенных Арабских Эмиратов. Официальные лица ОАЭ заявили, что они участвуют в этой области, чтобы разрушить существующий порядок.
На следующий день после выпуска версии 180B министр искусственного интеллекта ОАЭ вошел в список "100 самых влиятельных людей в области ИИ", составленный журналом Time; вместе с ним в этот список вошли "крестный отец ИИ" Джеффри Хинтон, Альтман из OpenAI и другие.
Сегодня область ИИ вошла в фазу расцвета: государства и компании с некоторыми финансовыми ресурсами продвигают планы по созданию местных версий ChatGPT. Только в районе Персидского залива есть не один участник — в августе Саудовская Аравия только что приобрела более 3000 чипов H100 для своих университетов, чтобы обучать LLM.
Некоторые инвесторы жаловались: "Когда-то я недооценивал инновации в бизнес-моделях интернета, думал, что у них нет барьеров; не ожидал, что стартапы в области жестких технологий и больших моделей все еще вызывают множество споров..."
Почему это должно было быть сложной высокотехнологичной областью, а превратилось в соревнование, в котором может участвовать каждый?
Трансформер: ключевой поворотный момент в развитии ИИ
Американские стартапы, китайские технологические гиганты и ближневосточные нефтяные магнаты могут преследовать мечты о больших моделях благодаря той знаменитой статье: «Attention Is All You Need».
В 2017 году восемь ученых в области компьютерных наук из Google опубликовали алгоритм Transformer в этой статье. Эта статья в настоящее время является третьей по количеству цитирований в истории ИИ, появление Transformer вызвало текущую волну интереса к ИИ.
Современные большие модели, включая всемирно известную серию GPT, основаны на трансформере.
До этого момента понимание текста машинами оставалось сложной задачей для академического мира. В отличие от распознавания изображений, при чтении человек обращает внимание не только на текущие слова и фразы, но и использует контекст для понимания. Ранние нейронные сети принимали вводимые данные независимо друг от друга, что затрудняло понимание длинных текстов и даже целых статей.
В 2014 году ученый Google Илья впервые добился прорыва. Он использовал рекуррентные нейронные сети (RNN) для обработки естественного языка, что значительно улучшило производительность Google Переводчика. RNN вводит "циклический дизайн", позволяя нейронам получать как текущий ввод, так и ввод предыдущего момента, что дает возможность "учитывать контекст".
Появление RNN вызвало исследовательский интерес в академической среде. Однако разработчики быстро обнаружили, что у RNN есть серьезные недостатки: алгоритм использует последовательные вычисления, что хотя и решает проблему контекста, но имеет низкую эффективность и плохо справляется с большим количеством параметров.
С 2015 года Шазель и его коллеги начали разработку альтернатив RNN, итогом которой стал Transformer. В отличие от RNN, у Transformer есть две основные инновации: во-первых, использование позиционного编码ирования вместо циклической структуры, что позволяет реализовать параллельные вычисления и значительно повысить эффективность обучения; во-вторых, дальнейшее улучшение способности понимать контекст.
Трансформер в одночасье решил несколько технических задач и постепенно стал основным решением в области обработки естественного языка. Он превратил большие модели из теоретического исследования в чисто инженерную задачу.
В 2019 году OpenAI разработала GPT-2 на основе Transformer, что шокировало академическое сообщество. Google вскоре выпустила более мощный ИИ — Meena. Meena не представила алгоритмических инноваций по сравнению с GPT-2, а лишь увеличила количество обучающих параметров и вычислительной мощности. Этот метод "грубой силы" произвел глубокое впечатление на автора Transformer Шазела.
Появление Transformer замедлило скорость инноваций в базовых алгоритмах в академической среде. Элементы инженерии, такие как обработка данных, масштаб вычислительных мощностей и архитектура моделей, постепенно становятся ключевыми в соревнованиях по ИИ. Любая компания с определенной технической мощностью может разработать большие модели.
Компьютерный ученый Энди Нг, выступая в Стэнфорде, отметил: "Искусственный интеллект — это набор инструментов, включая обучение с учителем, обучение без учителя, обучение с подкреплением и нынешний генеративный ИИ. Все это универсальные технологии, подобные электричеству и интернету."
Хотя OpenAI все еще является лидером в области LLM, аналитическая компания в области полупроводников считает, что преимущества GPT-4 в основном обусловлены инженерными решениями — если его открыть, любой конкурент сможет быстро скопировать. Этот аналитик ожидает, что другие крупные технологические компании вскоре смогут создать большие модели, сопоставимые по производительности с GPT-4.
Уязвимость защитного рва
Теперь "битва ста моделей" больше не является преувеличением, а объективной реальностью.
Отчет показывает, что по состоянию на июль этого года в Китае насчитывается 130 крупных моделей, что превышает количество в США, равное 114. Кроме Китая и США, другие богатые страны также начали запускать свои собственные крупные модели, такие как Bhashini, разработанная правительством Индии, и HyperClova X, созданная корейской интернет-компанией Naver.
Эта сцена словно возвращает нас в ранние дни интернета, когда капитал и технологии яростно соперничали.
Как уже упоминалось ранее, Transformer делает большие модели чисто инженерной задачей: если есть кадры, финансирование и оборудование, можно реализовать их, просто накапливая параметры. Но снижение барьеров для входа не означает, что каждый сможет стать гигантом эпохи ИИ.
Например, используя "Битва животных", упомянутую в начале статьи: хотя Falcon обошел Llama в некоторых рейтингах, его реальное влияние на Meta ограничено.
Как известно, компании открывают свои научные достижения, чтобы поделиться научными прогрессами и также надеются воспользоваться мудростью масс. С учетом того, что академическое и промышленное сообщество постоянно использует и улучшает Llama, Meta может применить эти достижения в своих продуктах.
Для открытых крупных моделей активное сообщество разработчиков является ключевым конкурентным преимуществом. Meta утвердила стратегию открытого исходного кода еще в 2015 году, когда основала AI-лабораторию; Цукерберг, начавший с социальных медиа, прекрасно понимает "поддержание отношений с пользователями".
Например, в октябре этого года Meta провела мероприятие "Стимулирование творцов ИИ": разработчики, использующие Llama 2 для решения социальных проблем, таких как образование и окружающая среда, имеют возможность получить финансирование в размере 500 000 долларов.
Сегодня серия Llama от Meta стала эталоном для открытых LLM. На начало октября в топ-10 открытых LLM по рейтингу, 8 из них разработаны на основе Llama 2 и используют его открытую лицензию. Только на этой платформе более 1500 LLM используют открытую лицензию Llama 2.
Конечно, повышение производительности, как у Falcon, также является стратегией, но в настоящее время большинство LLM все еще имеют очевидный разрыв с GPT-4.
Например, недавно GPT-4 занял первое место в тесте AgentBench с оценкой 4,41 балла. AgentBench был разработан несколькими известными университетами для оценки способностей LLM в области рассуждений и принятия решений в многомерной открытой среде. Результаты теста показали, что на втором месте Claude с всего лишь 2,77 балла, что является значительной разницей. Оценки других известных открытых LLM в основном колеблются около 1 балла, что составляет менее четверти от оценки GPT-4.
Стоит отметить, что GPT-4 был выпущен в марте этого года, и это результат более чем полугодового догоняющего усилия мировых конкурентов. OpenAI может поддерживать свое лидерство благодаря высококвалифицированной научной команде и долгосрочному накопленному опыту.
Иными словами, ключевое преимущество больших моделей заключается не в масштабах параметров, а в экосистемном строительстве (открытый путь) или чисто в способности к выводам (закрытый путь).
С ростом активности открытого сообщества производительность различных LLM может стать схожей, так как все используют похожие архитектуры моделей и наборы данных.
Другой более очевидный вопрос: кроме Midjourney, похоже, ни одна большая модель не смогла достичь прибыльности.
Проблемы с привязкой стоимости
В августе этого года статья под названием "OpenAI может обанкротиться к концу 2024 года" привлекла внимание. Основная идея статьи заключается в том, что OpenAI слишком быстро тратит деньги.
В статье упоминается, что с момента разработки ChatGPT убытки OpenAI быстро увеличились, в 2022 году убытки составили около 540 миллионов долларов, и им пришлось полагаться на инвестиции Microsoft для поддержания.
Хотя заголовок немного сенсационный, он действительно отражает общую ситуацию поставщиков больших моделей: серьезный дисбаланс между затратами и доходами.
Слишком высокие затраты приводят к тому, что в настоящее время основными бенефициарами горячей волны ИИ являются только такие производители чипов, как NVIDIA.
Согласно оценкам консалтинговой компании Omdia, Nvidia продала более 300 000 чипов H100 во втором квартале этого года. Это эффективный AI-чип, который активно покупается технологическими компаниями и исследовательскими институтами по всему миру. Если сложить эти 300 000 чипов H100, их вес будет равен весу 4,5 самолета Boeing 747.
Выручка NVIDIA стремительно возросла, увеличившись на 854% по сравнению с прошлым годом, что шокировало Уолл-стрит. В настоящее время цена на H100 на вторичном рынке достигла 40-50 тысяч долларов, в то время как его стоимость материалов составляет всего около 3000 долларов.
Высокие затраты на вычислительную мощность в какой-то степени препятствуют развитию отрасли. Sequoia Capital оценила, что глобальные технологические компании ежегодно будут инвестировать 200 миллиардов долларов в строительство инфраструктуры для больших моделей; в то же время большие модели могут приносить не более 75 миллиардов долларов в год, что создает дефицит как минимум в 125 миллиардов долларов.
Кроме того, за исключением немногих, таких как Midjourney, большинство программных компаний, вложив огромные средства, все еще не нашли четкой модели получения прибыли. Даже AI-бизнесы лидеров отрасли, таких как Microsoft и Adobe, сталкиваются с проблемами.
Инструмент генерации кода AI GitHub Copilot, разработанный в сотрудничестве Microsoft и OpenAI, хотя и взимает ежемесячную плату в 10 долларов, на самом деле убыточен для Microsoft на 20 долларов в месяц из-за затрат на инфраструктуру, а у пользователей с высокой нагрузкой убытки могут составить до 80 долларов в месяц. Исходя из этого, можно предположить, что Microsoft 365 Copilot с ценой в 30 долларов может быть еще более убыточным.
Точно так же, только что выпустивший инструмент Firefly AI, Adobe также быстро внедрил систему баллов, чтобы предотвратить чрезмерное использование пользователями, что может привести к убыткам компании. Как только пользователь превышает ежемесячно распределенные баллы, Adobe снижает скорость обслуживания.
Стоит отметить, что у Microsoft и Adobe уже есть четкие бизнес-сценарии и множество платных пользователей. В то время как у большинства крупных моделей с большим количеством параметров основным сценарием применения все еще остаются чаты.
Нельзя отрицать, что без появления OpenAI и ChatGPT эта революция в области ИИ, возможно, не произошла бы. Однако на текущем этапе ценность, создаваемая при обучении больших моделей, все еще подлежит обсуждению.
С усилением конкуренции с однородными продуктами и постоянным появлением открытых моделей, простые поставщики крупных моделей могут столкнуться с большими угрозами для своего существования.
Как и успех iPhone 4, который зависел не только от его процессора A4, но и от возможности запускать различные интересные приложения, истинная ценность ИИ, возможно, больше проявляется в его конкретных приложениях.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
6
Поделиться
комментарий
0/400
WalletManager
· 08-04 16:48
Много говорить не имеет смысла, это всего лишь вопрос того, чьи параметры модели больше.
Посмотреть ОригиналОтветить0
LuckyHashValue
· 08-02 08:00
В Японии действительно активно развивают ИИ.
Посмотреть ОригиналОтветить0
PaperHandSister
· 08-02 07:54
Эти двое спорят, кто победит, но это не так круто, как GPT4 бык啊
Посмотреть ОригиналОтветить0
BridgeTrustFund
· 08-02 07:46
На одной горе не может быть двух овец. Кто выиграл?
Посмотреть ОригиналОтветить0
SquidTeacher
· 08-02 07:45
Просто жесткий卷啊 жесткий卷!
Посмотреть ОригиналОтветить0
SurvivorshipBias
· 08-02 07:35
Трава, разве это не сражение между альпакой и соколом?
AI битва ста моделей: от академической задачи до инженерного соревнования
Битва ста моделей в AI-индустрии: от академических задач к инженерным проблемам
В прошлом месяце в индустрии ИИ развернулась битва на тему животных.
С одной стороны, это Llama, выпущенный Meta, который благодаря своей открытой природе пользуется большой популярностью среди сообщества разработчиков. Японская электротехническая компания (NEC) после изучения статьи и исходного кода Llama быстро разработала японскую версию ChatGPT, что решило проблему развития ИИ в Японии.
Другой стороной является большая модель под названием Falcon. В мае этого года появилась Falcon-40B, которая превзошла Llama и заняла первое место в "рейтинге открытых LLM". Этот рейтинг составлен сообществом открытых моделей и предоставляет стандарты для оценки возможностей LLM. В основном, рейтинг представляет собой чередование Llama и Falcon на первом месте.
После выхода Llama 2 семья Llama временно занимает лидирующие позиции; но к началу сентября Falcon выпустил версию 180B и снова занял более высокие позиции.
Интересно, что разработчики Falcon являются Институтом научных инноваций в Абу-Даби, столице Объединенных Арабских Эмиратов. Официальные лица ОАЭ заявили, что они участвуют в этой области, чтобы разрушить существующий порядок.
На следующий день после выпуска версии 180B министр искусственного интеллекта ОАЭ вошел в список "100 самых влиятельных людей в области ИИ", составленный журналом Time; вместе с ним в этот список вошли "крестный отец ИИ" Джеффри Хинтон, Альтман из OpenAI и другие.
Сегодня область ИИ вошла в фазу расцвета: государства и компании с некоторыми финансовыми ресурсами продвигают планы по созданию местных версий ChatGPT. Только в районе Персидского залива есть не один участник — в августе Саудовская Аравия только что приобрела более 3000 чипов H100 для своих университетов, чтобы обучать LLM.
Некоторые инвесторы жаловались: "Когда-то я недооценивал инновации в бизнес-моделях интернета, думал, что у них нет барьеров; не ожидал, что стартапы в области жестких технологий и больших моделей все еще вызывают множество споров..."
Почему это должно было быть сложной высокотехнологичной областью, а превратилось в соревнование, в котором может участвовать каждый?
Трансформер: ключевой поворотный момент в развитии ИИ
Американские стартапы, китайские технологические гиганты и ближневосточные нефтяные магнаты могут преследовать мечты о больших моделях благодаря той знаменитой статье: «Attention Is All You Need».
В 2017 году восемь ученых в области компьютерных наук из Google опубликовали алгоритм Transformer в этой статье. Эта статья в настоящее время является третьей по количеству цитирований в истории ИИ, появление Transformer вызвало текущую волну интереса к ИИ.
Современные большие модели, включая всемирно известную серию GPT, основаны на трансформере.
До этого момента понимание текста машинами оставалось сложной задачей для академического мира. В отличие от распознавания изображений, при чтении человек обращает внимание не только на текущие слова и фразы, но и использует контекст для понимания. Ранние нейронные сети принимали вводимые данные независимо друг от друга, что затрудняло понимание длинных текстов и даже целых статей.
В 2014 году ученый Google Илья впервые добился прорыва. Он использовал рекуррентные нейронные сети (RNN) для обработки естественного языка, что значительно улучшило производительность Google Переводчика. RNN вводит "циклический дизайн", позволяя нейронам получать как текущий ввод, так и ввод предыдущего момента, что дает возможность "учитывать контекст".
Появление RNN вызвало исследовательский интерес в академической среде. Однако разработчики быстро обнаружили, что у RNN есть серьезные недостатки: алгоритм использует последовательные вычисления, что хотя и решает проблему контекста, но имеет низкую эффективность и плохо справляется с большим количеством параметров.
С 2015 года Шазель и его коллеги начали разработку альтернатив RNN, итогом которой стал Transformer. В отличие от RNN, у Transformer есть две основные инновации: во-первых, использование позиционного编码ирования вместо циклической структуры, что позволяет реализовать параллельные вычисления и значительно повысить эффективность обучения; во-вторых, дальнейшее улучшение способности понимать контекст.
Трансформер в одночасье решил несколько технических задач и постепенно стал основным решением в области обработки естественного языка. Он превратил большие модели из теоретического исследования в чисто инженерную задачу.
В 2019 году OpenAI разработала GPT-2 на основе Transformer, что шокировало академическое сообщество. Google вскоре выпустила более мощный ИИ — Meena. Meena не представила алгоритмических инноваций по сравнению с GPT-2, а лишь увеличила количество обучающих параметров и вычислительной мощности. Этот метод "грубой силы" произвел глубокое впечатление на автора Transformer Шазела.
Появление Transformer замедлило скорость инноваций в базовых алгоритмах в академической среде. Элементы инженерии, такие как обработка данных, масштаб вычислительных мощностей и архитектура моделей, постепенно становятся ключевыми в соревнованиях по ИИ. Любая компания с определенной технической мощностью может разработать большие модели.
Компьютерный ученый Энди Нг, выступая в Стэнфорде, отметил: "Искусственный интеллект — это набор инструментов, включая обучение с учителем, обучение без учителя, обучение с подкреплением и нынешний генеративный ИИ. Все это универсальные технологии, подобные электричеству и интернету."
Хотя OpenAI все еще является лидером в области LLM, аналитическая компания в области полупроводников считает, что преимущества GPT-4 в основном обусловлены инженерными решениями — если его открыть, любой конкурент сможет быстро скопировать. Этот аналитик ожидает, что другие крупные технологические компании вскоре смогут создать большие модели, сопоставимые по производительности с GPT-4.
Уязвимость защитного рва
Теперь "битва ста моделей" больше не является преувеличением, а объективной реальностью.
Отчет показывает, что по состоянию на июль этого года в Китае насчитывается 130 крупных моделей, что превышает количество в США, равное 114. Кроме Китая и США, другие богатые страны также начали запускать свои собственные крупные модели, такие как Bhashini, разработанная правительством Индии, и HyperClova X, созданная корейской интернет-компанией Naver.
Эта сцена словно возвращает нас в ранние дни интернета, когда капитал и технологии яростно соперничали.
Как уже упоминалось ранее, Transformer делает большие модели чисто инженерной задачей: если есть кадры, финансирование и оборудование, можно реализовать их, просто накапливая параметры. Но снижение барьеров для входа не означает, что каждый сможет стать гигантом эпохи ИИ.
Например, используя "Битва животных", упомянутую в начале статьи: хотя Falcon обошел Llama в некоторых рейтингах, его реальное влияние на Meta ограничено.
Как известно, компании открывают свои научные достижения, чтобы поделиться научными прогрессами и также надеются воспользоваться мудростью масс. С учетом того, что академическое и промышленное сообщество постоянно использует и улучшает Llama, Meta может применить эти достижения в своих продуктах.
Для открытых крупных моделей активное сообщество разработчиков является ключевым конкурентным преимуществом. Meta утвердила стратегию открытого исходного кода еще в 2015 году, когда основала AI-лабораторию; Цукерберг, начавший с социальных медиа, прекрасно понимает "поддержание отношений с пользователями".
Например, в октябре этого года Meta провела мероприятие "Стимулирование творцов ИИ": разработчики, использующие Llama 2 для решения социальных проблем, таких как образование и окружающая среда, имеют возможность получить финансирование в размере 500 000 долларов.
Сегодня серия Llama от Meta стала эталоном для открытых LLM. На начало октября в топ-10 открытых LLM по рейтингу, 8 из них разработаны на основе Llama 2 и используют его открытую лицензию. Только на этой платформе более 1500 LLM используют открытую лицензию Llama 2.
Конечно, повышение производительности, как у Falcon, также является стратегией, но в настоящее время большинство LLM все еще имеют очевидный разрыв с GPT-4.
Например, недавно GPT-4 занял первое место в тесте AgentBench с оценкой 4,41 балла. AgentBench был разработан несколькими известными университетами для оценки способностей LLM в области рассуждений и принятия решений в многомерной открытой среде. Результаты теста показали, что на втором месте Claude с всего лишь 2,77 балла, что является значительной разницей. Оценки других известных открытых LLM в основном колеблются около 1 балла, что составляет менее четверти от оценки GPT-4.
Стоит отметить, что GPT-4 был выпущен в марте этого года, и это результат более чем полугодового догоняющего усилия мировых конкурентов. OpenAI может поддерживать свое лидерство благодаря высококвалифицированной научной команде и долгосрочному накопленному опыту.
Иными словами, ключевое преимущество больших моделей заключается не в масштабах параметров, а в экосистемном строительстве (открытый путь) или чисто в способности к выводам (закрытый путь).
С ростом активности открытого сообщества производительность различных LLM может стать схожей, так как все используют похожие архитектуры моделей и наборы данных.
Другой более очевидный вопрос: кроме Midjourney, похоже, ни одна большая модель не смогла достичь прибыльности.
Проблемы с привязкой стоимости
В августе этого года статья под названием "OpenAI может обанкротиться к концу 2024 года" привлекла внимание. Основная идея статьи заключается в том, что OpenAI слишком быстро тратит деньги.
В статье упоминается, что с момента разработки ChatGPT убытки OpenAI быстро увеличились, в 2022 году убытки составили около 540 миллионов долларов, и им пришлось полагаться на инвестиции Microsoft для поддержания.
Хотя заголовок немного сенсационный, он действительно отражает общую ситуацию поставщиков больших моделей: серьезный дисбаланс между затратами и доходами.
Слишком высокие затраты приводят к тому, что в настоящее время основными бенефициарами горячей волны ИИ являются только такие производители чипов, как NVIDIA.
Согласно оценкам консалтинговой компании Omdia, Nvidia продала более 300 000 чипов H100 во втором квартале этого года. Это эффективный AI-чип, который активно покупается технологическими компаниями и исследовательскими институтами по всему миру. Если сложить эти 300 000 чипов H100, их вес будет равен весу 4,5 самолета Boeing 747.
Выручка NVIDIA стремительно возросла, увеличившись на 854% по сравнению с прошлым годом, что шокировало Уолл-стрит. В настоящее время цена на H100 на вторичном рынке достигла 40-50 тысяч долларов, в то время как его стоимость материалов составляет всего около 3000 долларов.
Высокие затраты на вычислительную мощность в какой-то степени препятствуют развитию отрасли. Sequoia Capital оценила, что глобальные технологические компании ежегодно будут инвестировать 200 миллиардов долларов в строительство инфраструктуры для больших моделей; в то же время большие модели могут приносить не более 75 миллиардов долларов в год, что создает дефицит как минимум в 125 миллиардов долларов.
Кроме того, за исключением немногих, таких как Midjourney, большинство программных компаний, вложив огромные средства, все еще не нашли четкой модели получения прибыли. Даже AI-бизнесы лидеров отрасли, таких как Microsoft и Adobe, сталкиваются с проблемами.
Инструмент генерации кода AI GitHub Copilot, разработанный в сотрудничестве Microsoft и OpenAI, хотя и взимает ежемесячную плату в 10 долларов, на самом деле убыточен для Microsoft на 20 долларов в месяц из-за затрат на инфраструктуру, а у пользователей с высокой нагрузкой убытки могут составить до 80 долларов в месяц. Исходя из этого, можно предположить, что Microsoft 365 Copilot с ценой в 30 долларов может быть еще более убыточным.
Точно так же, только что выпустивший инструмент Firefly AI, Adobe также быстро внедрил систему баллов, чтобы предотвратить чрезмерное использование пользователями, что может привести к убыткам компании. Как только пользователь превышает ежемесячно распределенные баллы, Adobe снижает скорость обслуживания.
Стоит отметить, что у Microsoft и Adobe уже есть четкие бизнес-сценарии и множество платных пользователей. В то время как у большинства крупных моделей с большим количеством параметров основным сценарием применения все еще остаются чаты.
Нельзя отрицать, что без появления OpenAI и ChatGPT эта революция в области ИИ, возможно, не произошла бы. Однако на текущем этапе ценность, создаваемая при обучении больших моделей, все еще подлежит обсуждению.
С усилением конкуренции с однородными продуктами и постоянным появлением открытых моделей, простые поставщики крупных моделей могут столкнуться с большими угрозами для своего существования.
Как и успех iPhone 4, который зависел не только от его процессора A4, но и от возможности запускать различные интересные приложения, истинная ценность ИИ, возможно, больше проявляется в его конкретных приложениях.