Fonte: CryptoNewsNet
Título Original: A Aposta de IA de Código Aberto da América: Dois Laboratórios, Uma Pergunta—Pode os EUA Competir?
Link Original:
Esta semana, dois laboratórios de IA americanos lançaram modelos de código aberto, cada um adotando abordagens dramaticamente diferentes para o mesmo problema: como competir com o domínio da China em sistemas de IA acessíveis ao público.
A Deep Cogito lançou o Cogito v2.1, um modelo massivo de 671 bilhões de parâmetros que o seu fundador, Drishan Arora, chama de “o melhor LLM de pesos abertos de uma empresa dos EUA.”
Não tão rápido, contra-atacou o Allen Institute for AI, que acaba de lançar o Olmo 3, apresentando-o como “o melhor modelo base totalmente aberto.” O Olmo 3 possui total transparência, incluindo seus dados de treinamento e código.
Ironicamente, o modelo principal da Deep Cognito é construído sobre uma base chinesa. Arora reconheceu que o Cogito v2.1 “se desvia do modelo base Deepseek de licença aberta de Novembro de 2024.”
Isso gerou algumas críticas e debates sobre se o ajuste fino de um modelo chinês conta como um avanço da IA americana, ou se apenas prova o quão atrás os laboratórios dos EUA ficaram.
Independentemente disso, os ganhos de eficiência que a Cogito demonstra em relação à DeepSeek são reais.
A Deep Cognito afirma que o Cogito v2.1 produz cadeias de raciocínio 60% mais curtas do que o DeepSeek R1, mantendo um desempenho competitivo.
Usando o que Arora chama de “Destilação e Amplificação Iteradas”—ensinando modelos a desenvolver uma melhor intuição através de ciclos de autoaperfeiçoamento—a startup treinou seu modelo em apenas 75 dias com a infraestrutura da RunPod e da Nebius.
Se os benchmarks forem verdadeiros, este seria o LLM de código aberto mais poderoso atualmente mantido por uma equipe dos EUA.
Por que é importante
Até agora, a China tem liderado o ritmo em IA de código aberto, e as empresas dos EUA dependem cada vez mais—silenciosamente ou abertamente—de modelos base chineses para se manterem competitivas.
Essa dinâmica é arriscada. Se os laboratórios chineses se tornarem a infraestrutura padrão para a IA aberta em todo o mundo, as startups dos EUA perdem independência técnica, poder de negociação e a capacidade de moldar os padrões da indústria.
A IA de peso aberto determina quem controla os modelos brutos dos quais todos os produtos downstream dependem.
Neste momento, modelos de código aberto chineses (DeepSeek, Qwen, Kimi, MiniMax) dominam a adoção global porque são baratos, rápidos, altamente eficientes e constantemente atualizados.
Muitas startups dos EUA já constroem sobre eles, mesmo quando publicamente evitam admitir.
Isso significa que as empresas dos EUA estão construindo negócios com base em propriedade intelectual estrangeira, canais de formação estrangeiros e otimizações de hardware estrangeiras. Estrategicamente, isso coloca a América na mesma posição que uma vez enfrentou com a fabricação de semicondutores: cada vez mais dependente da cadeia de suprimentos de outra pessoa.
A abordagem da Deep Cogito—começando a partir de um fork do DeepSeek—mostra o lado positivo ( iteração rápida ) e o lado negativo ( dependência ).
A abordagem do Allen Institute—construindo o Olmo 3 com total transparência—mostra a alternativa: se os EUA querem liderança aberta em IA, têm que reconstruir a pilha eles mesmos, desde os dados até as receitas de treinamento e os pontos de verificação. Isso é intensivo em mão de obra e lento, mas preserva a soberania sobre a tecnologia subjacente.
Em teoria, se você já gostou do DeepSeek e o utiliza online, o Cogito lhe dará melhores respostas na maioria das vezes. Se você o usar via API, você ficará duas vezes mais feliz, já que pagará menos dinheiro para gerar boas respostas graças aos ganhos de eficiência.
O Instituto Allen adotou uma abordagem oposta. Toda a família de modelos Olmo 3 chega com Dolma 3, um conjunto de dados de treinamento de 5,9 trilhões de tokens criado do zero, além de código completo, receitas e pontos de verificação de cada estágio de treinamento.
A organização sem fins lucrativos lançou três variantes de modelo—Base, Think e Instruct—com 7 bilhões e 32 bilhões de parâmetros.
“A verdadeira abertura na IA não se trata apenas de acesso—mas de confiança, responsabilidade e progresso compartilhado,” escreveu o instituto.
Olmo 3-Think 32B é o primeiro modelo de raciocínio totalmente aberto nessa escala, treinado com aproximadamente um sexto dos tokens de modelos comparáveis como o Qwen 3, enquanto atinge um desempenho competitivo.
A Deep Cognito assegurou $13 milhões em financiamento seed liderado pela Benchmark em agosto. A startup planeja lançar modelos de fronteira com até 671 bilhões de parâmetros treinados em “significativamente mais computação com melhores conjuntos de dados.”
Entretanto, a Nvidia apoiou o desenvolvimento do Olmo 3, com a vice-presidente Kari Briski a chamar-lhe essencial para “os desenvolvedores escalarem a IA com modelos abertos, construídos nos EUA.”
O instituto treinou nos clusters de GPU H100 do Google Cloud, alcançando uma necessidade de computação 2,5 vezes menor do que o Llama 3.1 8B da Meta.
Cogito v2.1 está disponível para testes online gratuitos. O modelo pode ser descarregado, mas cuidado: requer uma placa muito poderosa para funcionar.
Olmo está disponível para testes. Os modelos podem ser descarregados. Estes são mais amigáveis para o consumidor, dependendo de qual você escolher.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A Aposta em IA de Código Aberto da América: Dois Laboratórios, Uma Questão—Pode os E.U.A. Competir?
Fonte: CryptoNewsNet Título Original: A Aposta de IA de Código Aberto da América: Dois Laboratórios, Uma Pergunta—Pode os EUA Competir? Link Original: Esta semana, dois laboratórios de IA americanos lançaram modelos de código aberto, cada um adotando abordagens dramaticamente diferentes para o mesmo problema: como competir com o domínio da China em sistemas de IA acessíveis ao público.
A Deep Cogito lançou o Cogito v2.1, um modelo massivo de 671 bilhões de parâmetros que o seu fundador, Drishan Arora, chama de “o melhor LLM de pesos abertos de uma empresa dos EUA.”
Não tão rápido, contra-atacou o Allen Institute for AI, que acaba de lançar o Olmo 3, apresentando-o como “o melhor modelo base totalmente aberto.” O Olmo 3 possui total transparência, incluindo seus dados de treinamento e código.
Ironicamente, o modelo principal da Deep Cognito é construído sobre uma base chinesa. Arora reconheceu que o Cogito v2.1 “se desvia do modelo base Deepseek de licença aberta de Novembro de 2024.”
Isso gerou algumas críticas e debates sobre se o ajuste fino de um modelo chinês conta como um avanço da IA americana, ou se apenas prova o quão atrás os laboratórios dos EUA ficaram.
Independentemente disso, os ganhos de eficiência que a Cogito demonstra em relação à DeepSeek são reais.
A Deep Cognito afirma que o Cogito v2.1 produz cadeias de raciocínio 60% mais curtas do que o DeepSeek R1, mantendo um desempenho competitivo.
Usando o que Arora chama de “Destilação e Amplificação Iteradas”—ensinando modelos a desenvolver uma melhor intuição através de ciclos de autoaperfeiçoamento—a startup treinou seu modelo em apenas 75 dias com a infraestrutura da RunPod e da Nebius.
Se os benchmarks forem verdadeiros, este seria o LLM de código aberto mais poderoso atualmente mantido por uma equipe dos EUA.
Por que é importante
Até agora, a China tem liderado o ritmo em IA de código aberto, e as empresas dos EUA dependem cada vez mais—silenciosamente ou abertamente—de modelos base chineses para se manterem competitivas.
Essa dinâmica é arriscada. Se os laboratórios chineses se tornarem a infraestrutura padrão para a IA aberta em todo o mundo, as startups dos EUA perdem independência técnica, poder de negociação e a capacidade de moldar os padrões da indústria.
A IA de peso aberto determina quem controla os modelos brutos dos quais todos os produtos downstream dependem.
Neste momento, modelos de código aberto chineses (DeepSeek, Qwen, Kimi, MiniMax) dominam a adoção global porque são baratos, rápidos, altamente eficientes e constantemente atualizados.
Muitas startups dos EUA já constroem sobre eles, mesmo quando publicamente evitam admitir.
Isso significa que as empresas dos EUA estão construindo negócios com base em propriedade intelectual estrangeira, canais de formação estrangeiros e otimizações de hardware estrangeiras. Estrategicamente, isso coloca a América na mesma posição que uma vez enfrentou com a fabricação de semicondutores: cada vez mais dependente da cadeia de suprimentos de outra pessoa.
A abordagem da Deep Cogito—começando a partir de um fork do DeepSeek—mostra o lado positivo ( iteração rápida ) e o lado negativo ( dependência ).
A abordagem do Allen Institute—construindo o Olmo 3 com total transparência—mostra a alternativa: se os EUA querem liderança aberta em IA, têm que reconstruir a pilha eles mesmos, desde os dados até as receitas de treinamento e os pontos de verificação. Isso é intensivo em mão de obra e lento, mas preserva a soberania sobre a tecnologia subjacente.
Em teoria, se você já gostou do DeepSeek e o utiliza online, o Cogito lhe dará melhores respostas na maioria das vezes. Se você o usar via API, você ficará duas vezes mais feliz, já que pagará menos dinheiro para gerar boas respostas graças aos ganhos de eficiência.
O Instituto Allen adotou uma abordagem oposta. Toda a família de modelos Olmo 3 chega com Dolma 3, um conjunto de dados de treinamento de 5,9 trilhões de tokens criado do zero, além de código completo, receitas e pontos de verificação de cada estágio de treinamento.
A organização sem fins lucrativos lançou três variantes de modelo—Base, Think e Instruct—com 7 bilhões e 32 bilhões de parâmetros.
“A verdadeira abertura na IA não se trata apenas de acesso—mas de confiança, responsabilidade e progresso compartilhado,” escreveu o instituto.
Olmo 3-Think 32B é o primeiro modelo de raciocínio totalmente aberto nessa escala, treinado com aproximadamente um sexto dos tokens de modelos comparáveis como o Qwen 3, enquanto atinge um desempenho competitivo.
A Deep Cognito assegurou $13 milhões em financiamento seed liderado pela Benchmark em agosto. A startup planeja lançar modelos de fronteira com até 671 bilhões de parâmetros treinados em “significativamente mais computação com melhores conjuntos de dados.”
Entretanto, a Nvidia apoiou o desenvolvimento do Olmo 3, com a vice-presidente Kari Briski a chamar-lhe essencial para “os desenvolvedores escalarem a IA com modelos abertos, construídos nos EUA.”
O instituto treinou nos clusters de GPU H100 do Google Cloud, alcançando uma necessidade de computação 2,5 vezes menor do que o Llama 3.1 8B da Meta.
Cogito v2.1 está disponível para testes online gratuitos. O modelo pode ser descarregado, mas cuidado: requer uma placa muito poderosa para funcionar.
Olmo está disponível para testes. Os modelos podem ser descarregados. Estes são mais amigáveis para o consumidor, dependendo de qual você escolher.