Anthropic đối mặt với sự kiểm tra khi rò rỉ mã của Claude tiết lộ 512.000 dòng mã nội bộ

Khi mối lo ngày càng tăng về an ninh AI, việc bị rò rỉ mã nguồn của claude đã khiến Anthropic chịu sự giám sát gắt gao từ các nhà phát triển và nhà nghiên cứu trên toàn thế giới.

Anthropic xác nhận rò rỉ mã nguồn nội bộ

Vào hôm thứ Ba, Anthropic xác nhận rằng họ đã vô tình gửi đi một phần mã nguồn nội bộ cho công cụ AI viết code Claude Code của mình. Công ty mô tả sự cố này là “lỗi đóng gói bản phát hành do con người gây ra, không phải một hành vi xâm phạm an ninh,” nhấn mạnh rằng không có sự xâm nhập từ bên ngoài nào xảy ra.

Theo các nhà phân tích an ninh mạng độc lập, sự rò rỉ liên quan đến khoảng 1.900 tệp và chừng 512.000 dòng mã. Hơn nữa, các chuyên gia cho biết trợ lý này chạy trực tiếp bên trong môi trường của nhà phát triển, nơi nó có thể truy cập thông tin nhạy cảm, khiến lo ngại về khả năng bị lạm dụng tăng cao.

Tình hình nhanh chóng leo thang sau một bài đăng trên X chia sẻ liên kết đến tài liệu bị rò rỉ. Đến đầu giờ sáng ngày thứ Ba, bài đăng đó đã vượt 30 triệu lượt xem, làm tăng mạnh mức độ hiện diện của kho mã bị rò rỉ và thu hút các chuyên gia an ninh đến để xem xét các tệp.

Hệ quả an ninh và mối lo của kẻ tấn công

Các nhà phát triển và nhà nghiên cứu bắt đầu rà soát toàn bộ cơ sở mã bị rò rỉ để hiểu cách Claude Code được kiến trúc và cách Anthropic dự định phát triển sản phẩm. Tuy nhiên, một số chuyên gia an ninh ngay lập tức đặt câu hỏi về việc các kẻ tấn công tinh vi có thể làm gì với những hiểu biết chi tiết về các hệ thống nội bộ.

Công ty an ninh mạng AI Straiker cảnh báo trong một bài đăng trên blog rằng đối thủ giờ đây có thể nghiên cứu cách dữ liệu di chuyển qua “pipeline” nội bộ của Claude Code. Dù vậy, công ty cũng lưu ý rằng mức độ hiển thị này có thể cho phép ai đó thiết kế các payload tồn tại qua các phiên làm việc dài, từ đó tạo ra một backdoor ẩn bên trong quy trình làm việc của nhà phát triển.

Những cảnh báo này đã khuếch đại nỗi sợ hãi lớn hơn trong toàn ngành về an ninh khi rò rỉ mã. Hơn nữa, các nhà phân tích nhấn mạnh rằng các công cụ hoạt động trong môi trường của nhà phát triển, với mức truy cập sâu vào kho mã và hạ tầng, là một mục tiêu đặc biệt hấp dẫn đối với các tác nhân độc hại.

Sự cố dữ liệu thứ hai của Anthropic trong chưa đầy một tuần

Đợt rò rỉ này không phải là một cú vấp cô lập đối với Anthropic. Chỉ vài ngày trước đó, Fortune đưa tin rằng công ty đã vô tình làm cho hàng nghìn tệp nội bộ trở nên công khai, đánh dấu một sự cố dữ liệu khác của anthropic diễn ra trước khi có việc phát hành mã nguồn.

Những tệp trước đó được cho là bao gồm một bản nháp bài blog mô tả một mô hình AI sắp ra mắt, được gọi nội bộ là cả “Mythos” và “Capybara”. Bản nháp nêu rằng mô hình thử nghiệm có thể gây ra những rủi ro đáng kể về an ninh mạng, và điều này giờ đây trở nên nhạy cảm hơn trong bối cảnh việc rò rỉ mã nguồn tiếp theo.

Để đáp lại cả hai sự kiện, Anthropic cho biết họ đang triển khai thêm các biện pháp bảo vệ để ngăn các sai lầm tương tự. Hơn nữa, công ty khẳng định lại rằng không có dữ liệu khách hàng nhạy cảm hay thông tin xác thực nào liên quan trong bất kỳ sự cố nào, nhằm trấn an các khách hàng doanh nghiệp và các cơ quan quản lý.

Claude Code theo số liệu và tác động tới thị trường

Anthropic đã phát hành Claude Code ra công chúng vào tháng Năm năm ngoái, định vị nó như một trợ lý AI giúp các nhà phát triển xây dựng tính năng, sửa lỗi và tự động hóa các tác vụ lặp đi lặp lại. Lần ra mắt này đánh dấu một bước đẩy mạnh đáng kể của công ty vào thị trường béo bở cho các công cụ phần mềm do AI hỗ trợ.

Đà phát triển thương mại của sản phẩm diễn ra nhanh chóng. Đến tháng Hai, Anthropic báo cáo rằng Claude Code đã đạt doanh thu theo tốc độ chạy (run-rate) hơn 2,5 tỷ USD. Tuy nhiên, con số ấn tượng này cũng làm tăng mức độ rủi ro đối với trạng thái an ninh của Anthropic khi ngày càng nhiều doanh nghiệp tích hợp trợ lý vào quy trình làm việc của họ.

Áp lực cạnh tranh đã gia tăng khi các đối thủ phản ứng trước sự tăng trưởng đó. OpenAI, Google và xAI đều đã phân bổ nguồn lực đáng kể để xây dựng các trợ lý viết mã của riêng mình, với hy vọng giành một phần thị trường đang mở rộng và cạnh tranh trực tiếp với công cụ hàng đầu của Anthropic.

Thành lập, danh tiếng và các bước tiếp theo sau vụ rò rỉ claude code

Được thành lập vào năm 2021 bởi các cựu lãnh đạo và nhà nghiên cứu của OpenAI, Anthropic đã xây dựng danh tiếng của mình dựa trên dòng mô hình Claude AI và sự nhấn mạnh vào an toàn. Việc rò rỉ claude code giờ đây đã đặt câu chuyện về sự an toàn đó dưới áp lực, ngay cả khi công ty khẳng định nguyên nhân gốc là do vận hành chứ không phải do đối thủ gây ra.

Công ty cho biết họ đang triển khai các quy trình kiểm tra đóng gói nghiêm ngặt hơn, kiểm soát truy cập và thủ tục rà soát đối với các bản phát hành liên quan đến kho mã nội bộ. Tuy nhiên, các chuyên gia an ninh cho rằng các nền tảng AI hiện đại cần các lớp phòng vệ liên tục, bởi chúng được tích hợp sâu vào môi trường của nhà phát triển và bởi mức độ tinh vi ngày càng tăng của các kẻ tấn công tiềm năng.

Người phát ngôn của Anthropic nhấn mạnh rằng tổ chức này đang thực hiện các bước cụ thể để đảm bảo loại sự cố này không lặp lại. Tóm lại, các đợt rò rỉ gần đây cho thấy các công ty AI đang tăng trưởng nhanh chóng phải cân bằng như thế nào giữa việc tung sản phẩm mạnh mẽ với việc duy trì vệ sinh an ninh nghiêm ngặt để giữ vững niềm tin.

XAI0,33%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim