Quét để tải ứng dụng Gate
qrCode
Thêm tùy chọn tải xuống
Không cần nhắc lại hôm nay

Mỹ's Mã nguồn mở AI Gambit: Hai phòng thí nghiệm, Một câu hỏi—Liệu Mỹ có thể cạnh tranh?

image

Nguồn: CryptoNewsNet Tiêu đề gốc: Chiến lược AI mã nguồn mở của Mỹ: Hai phòng thí nghiệm, Một câu hỏi—Có phải Mỹ có thể cạnh tranh? Liên kết gốc: Hai phòng thí nghiệm AI của Mỹ đã phát hành các mô hình mã nguồn mở trong tuần này, mỗi phòng thí nghiệm áp dụng những cách tiếp cận hoàn toàn khác nhau đối với cùng một vấn đề: làm thế nào để cạnh tranh với sự thống trị của Trung Quốc trong các hệ thống AI có sẵn công khai.

Deep Cogito đã phát hành Cogito v2.1, một mô hình khổng lồ với 671 tỷ tham số mà người sáng lập của nó, Drishan Arora, gọi là “LLM open-weight tốt nhất của một công ty Hoa Kỳ.”

Không nhanh như vậy, phản bác Viện Allen cho AI, vừa mới ra mắt Olmo 3, được quảng cáo là “mô hình cơ sở hoàn toàn mở tốt nhất.” Olmo 3 tự hào về sự minh bạch hoàn toàn, bao gồm cả dữ liệu và mã nguồn huấn luyện của nó.

Trớ trêu thay, mô hình flagship của Deep Cognito được xây dựng trên nền tảng Trung Quốc. Arora đã thừa nhận rằng Cogito v2.1 “tách ra từ mô hình cơ sở Deepseek có giấy phép mở từ tháng 11 năm 2024.”

Điều đó đã gây ra một số chỉ trích và tranh luận về việc việc điều chỉnh một mô hình Trung Quốc có được coi là sự tiến bộ của AI Mỹ hay không, hoặc liệu nó chỉ chứng minh rằng các phòng thí nghiệm của Mỹ đã tụt lại phía sau như thế nào.

Dù sao đi nữa, những lợi ích về hiệu suất mà Cogito thể hiện so với DeepSeek là có thật.

Deep Cognito tuyên bố Cogito v2.1 tạo ra chuỗi lý luận ngắn hơn 60% so với DeepSeek R1 trong khi vẫn duy trì hiệu suất cạnh tranh.

Sử dụng cái mà Arora gọi là “Chưng cất và Tăng cường Lặp lại”—dạy các mô hình phát triển trực giác tốt hơn thông qua các vòng tự cải tiến—công ty khởi nghiệp đã đào tạo mô hình của mình chỉ trong 75 ngày trên hạ tầng từ RunPod và Nebius.

Nếu các tiêu chuẩn là đúng, đây sẽ là LLM mã nguồn mở mạnh mẽ nhất hiện đang được duy trì bởi một đội ngũ của Mỹ.

Tại sao điều đó quan trọng

Cho đến nay, Trung Quốc đã dẫn đầu trong lĩnh vực AI nguồn mở, và các công ty Mỹ ngày càng phụ thuộc - một cách âm thầm hoặc công khai - vào các mô hình cơ sở của Trung Quốc để giữ vị thế cạnh tranh.

Động lực đó rất rủi ro. Nếu các phòng thí nghiệm Trung Quốc trở thành cơ sở hạ tầng mặc định cho AI mở trên toàn cầu, các công ty khởi nghiệp của Mỹ sẽ mất độc lập về công nghệ, sức mạnh thương lượng và khả năng định hình các tiêu chuẩn ngành.

AI mở trọng số xác định ai kiểm soát các mô hình thô mà mọi sản phẩm hạ nguồn đều phụ thuộc vào.

Hiện tại, các mô hình mã nguồn mở Trung Quốc (DeepSeek, Qwen, Kimi, MiniMax) chiếm ưu thế trong việc áp dụng toàn cầu vì chúng rẻ, nhanh, hiệu quả cao và luôn được cập nhật liên tục.

Nhiều công ty khởi nghiệp ở Mỹ đã xây dựng trên chúng, ngay cả khi họ công khai tránh thừa nhận điều đó.

Điều đó có nghĩa là các công ty của Mỹ đang xây dựng doanh nghiệp dựa trên sở hữu trí tuệ nước ngoài, các kênh đào tạo nước ngoài và các tối ưu hóa phần cứng nước ngoài. Về mặt chiến lược, điều đó đặt Mỹ vào vị trí mà họ từng phải đối mặt với việc chế tạo chất bán dẫn: ngày càng phụ thuộc vào chuỗi cung ứng của người khác.

Cách tiếp cận của Deep Cogito—bắt đầu từ một nhánh DeepSeek—cho thấy sự tiến triển (lặp lại nhanh chóng) và mặt trái (sự phụ thuộc).

Cách tiếp cận của Viện Allen—xây dựng Olmo 3 với sự minh bạch hoàn toàn—cho thấy một lựa chọn khác: nếu Hoa Kỳ muốn dẫn đầu AI mở, họ phải tự xây dựng lại toàn bộ hệ thống, từ dữ liệu đến công thức đào tạo đến các điểm kiểm tra. Điều đó tốn nhiều công sức và chậm chạp, nhưng nó bảo tồn chủ quyền đối với công nghệ cơ bản.

Về lý thuyết, nếu bạn đã thích DeepSeek và sử dụng nó trực tuyến, Cogito sẽ cung cấp cho bạn câu trả lời tốt hơn trong hầu hết các trường hợp. Nếu bạn sử dụng nó qua API, bạn sẽ hạnh phúc gấp đôi, vì bạn sẽ trả ít tiền hơn để tạo ra những phản hồi tốt nhờ vào những cải tiến về hiệu suất.

Viện Allen đã chọn hướng đi ngược lại. Tất cả các mô hình Olmo 3 đều đi kèm với Dolma 3, một bộ dữ liệu huấn luyện 5,9 nghìn tỷ token được xây dựng từ đầu, cùng với mã nguồn hoàn chỉnh, công thức và điểm kiểm tra từ mọi giai đoạn huấn luyện.

Tổ chức phi lợi nhuận đã phát hành ba biến thể mô hình—Cơ bản, Suy nghĩ, và Hướng dẫn—với 7 tỷ và 32 tỷ tham số.

“Sự cởi mở thật sự trong AI không chỉ là về quyền truy cập—mà còn về sự tin tưởng, trách nhiệm và sự tiến bộ chung,” viện nghiên cứu viết.

Olmo 3-Think 32B là mô hình lý luận hoàn toàn mở đầu tiên ở quy mô đó, được đào tạo trên khoảng một phần sáu số token của các mô hình tương đương như Qwen 3, trong khi vẫn đạt được hiệu suất cạnh tranh.

Deep Cognito đã huy động được $13 triệu USD trong vòng gọi vốn hạt giống do Benchmark dẫn dắt vào tháng Tám. Công ty khởi nghiệp dự định phát hành các mô hình tiên tiến lên tới 671 tỷ tham số được đào tạo trên “nhiều tính toán hơn đáng kể với các tập dữ liệu tốt hơn.”

Trong khi đó, Nvidia đã ủng hộ việc phát triển Olmo 3, với phó chủ tịch Kari Briski gọi đây là điều thiết yếu cho “các nhà phát triển để mở rộng AI với các mô hình được xây dựng mở, tại Mỹ.”

Viện đã được đào tạo trên các cụm GPU H100 của Google Cloud, đạt được yêu cầu tính toán ít hơn 2.5 lần so với Llama 3.1 8B của Meta.

Cogito v2.1 hiện có sẵn để thử nghiệm trực tuyến miễn phí. Mô hình có thể được tải xuống, nhưng hãy cẩn thận: nó yêu cầu một card rất mạnh để chạy.

Olmo có sẵn để thử nghiệm. Các mô hình có thể được tải xuống. Những mô hình này thân thiện hơn với người tiêu dùng, tùy thuộc vào mô hình nào bạn chọn.

Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)