Public Citizen đã công bố bằng chứng mới cho thấy Grok trích dẫn các trang web tân phát xít và chủ nghĩa dân tộc da trắng như những nguồn tin đáng tin cậy.
Nhóm này đã gửi thư tới Văn phòng Quản lý và Ngân sách (OMB), kêu gọi tạm ngừng sử dụng liên bang, nhưng không nhận được phản hồi.
Các nhà vận động cho rằng hành vi và dữ liệu huấn luyện của Grok khiến nó không phù hợp để triển khai ở cấp liên bang khi xAI mở rộng hợp đồng với chính phủ.
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Public Citizen, một tổ chức vận động bảo vệ người tiêu dùng phi lợi nhuận, đã nâng cao cảnh báo về AI Grok của Elon Musk vào thứ Sáu sau khi công bố bằng chứng mới cho thấy chatbot này trích dẫn các trang web tân phát xít và chủ nghĩa dân tộc da trắng như các nguồn tin đáng tin cậy.
Nhóm này cho biết hành vi trên nên khiến Grok bị loại khỏi mọi hoạt động sử dụng ở cấp liên bang, đồng thời tiếp tục kêu gọi Văn phòng Quản lý và Ngân sách Hoa Kỳ can thiệp sau nhiều tháng không nhận được phản hồi.
Dẫn một nghiên cứu gần đây của Đại học Cornell, Public Citizen cho biết Grokipedia, nền tảng Wikipedia thay thế sử dụng AI mới được Musk ra mắt vào tháng 10, đã nhiều lần đưa ra các tên miền cực đoan, bao gồm cả Stormfront, củng cố những lo ngại trước đó xuất hiện sau khi mô hình này tự gọi mình là “MechaHitler” trên nền tảng X của Musk vào tháng 7.
Các phát hiện này nhấn mạnh điều mà các nhà vận động mô tả là một mô hình hành vi phân biệt chủng tộc, bài Do Thái và mang tính thuyết âm mưu.
“Grok đã nhiều lần có những ‘tan chảy’ kiểu này, dù là tan chảy bài Do Thái, tan chảy phân biệt chủng tộc hay tan chảy bởi các thuyết âm mưu,” nhà vận động trách nhiệm công nghệ lớn J.B. Branch của Public Citizen nói với Decrypt.
Cảnh báo mới này được đưa ra sau khi Public Citizen cùng 24 tổ chức bảo vệ quyền công dân, quyền kỹ thuật số, môi trường và bảo vệ người tiêu dùng khác gửi thư tới OMB vào tháng 8 và tháng 10, kêu gọi cơ quan này tạm ngừng cung cấp Grok cho các bộ ngành liên bang qua Cục Quản lý Dịch vụ Tổng hợp, đơn vị phụ trách tài sản và mua sắm liên bang. Nhóm cho biết không nhận được bất kỳ phản hồi nào từ những lần liên hệ này.
Dù nhiều sự cố lặp lại, phạm vi hoạt động của Grok trong chính phủ đã gia tăng trong năm qua. Vào tháng 7, xAI đã ký hợp đồng trị giá $200 triệu đô với Lầu Năm Góc, và Cục Quản lý Dịch vụ Tổng hợp sau đó đã cung cấp mô hình này cho nhiều cơ quan liên bang, cùng với Gemini, Meta AI, ChatGPT và Claude. Việc bổ sung này diễn ra khi Tổng thống Mỹ Donald Trump ra lệnh cấm “AI thức tỉnh” trong các hợp đồng liên bang.
Các nhà vận động cho rằng những động thái này làm tăng nhu cầu giám sát, đặc biệt khi ngày càng nhiều câu hỏi về dữ liệu huấn luyện và độ tin cậy của Grok.
“Grok ban đầu chỉ giới hạn ở Bộ Quốc phòng, điều này vốn đã đáng báo động vì lượng dữ liệu nhạy cảm mà bộ này nắm giữ,” Branch nói. “Việc mở rộng ra toàn bộ chính phủ liên bang còn gây báo động lớn hơn.”
Branch cho biết hành vi của Grok một phần xuất phát từ dữ liệu huấn luyện và các lựa chọn thiết kế trong các công ty của Musk.
“Có sự chênh lệch rõ rệt về chất lượng giữa Grok và các mô hình ngôn ngữ khác, một phần là do dữ liệu huấn luyện của nó bao gồm cả X,” ông nói. “Musk đã nói muốn Grok trở thành một lựa chọn phi thức tỉnh, và điều đó thể hiện rõ trong các phản hồi cay độc.”
Branch cũng bày tỏ lo ngại về khả năng mô hình này được dùng để đánh giá các đơn xin cấp phép liên bang hoặc tương tác với hồ sơ cá nhân nhạy cảm.
“Giá trị mà nước Mỹ đại diện khác xa với những điều mà Grok đang nói,” ông nói. “Nếu bạn là người Do Thái và đang nộp đơn vay vốn liên bang, bạn có muốn một chatbot bài Do Thái xem xét đơn của mình không? Dĩ nhiên là không.”
Branch cho biết trường hợp của Grok đã phơi bày những lỗ hổng trong giám sát liên bang đối với các hệ thống AI mới nổi, và nhấn mạnh các quan chức chính phủ hoàn toàn có thể hành động loại Grok khỏi lịch trình hợp đồng của Cục Quản lý Dịch vụ Tổng hợp bất cứ lúc nào—nếu họ muốn.
“Nếu họ có thể triển khai lực lượng Vệ binh Quốc gia trên toàn quốc chỉ trong chốc lát, chắc chắn họ có thể gỡ bỏ một chatbot API chỉ trong một ngày,” ông nói.
xAI đã không phản hồi yêu cầu bình luận từ Decrypt.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Một nhóm yêu cầu cơ quan liên bang dừng sử dụng AI Grok của Elon Musk do lo ngại về phân biệt chủng tộc
Tóm tắt
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Public Citizen, một tổ chức vận động bảo vệ người tiêu dùng phi lợi nhuận, đã nâng cao cảnh báo về AI Grok của Elon Musk vào thứ Sáu sau khi công bố bằng chứng mới cho thấy chatbot này trích dẫn các trang web tân phát xít và chủ nghĩa dân tộc da trắng như các nguồn tin đáng tin cậy.
Nhóm này cho biết hành vi trên nên khiến Grok bị loại khỏi mọi hoạt động sử dụng ở cấp liên bang, đồng thời tiếp tục kêu gọi Văn phòng Quản lý và Ngân sách Hoa Kỳ can thiệp sau nhiều tháng không nhận được phản hồi.
Dẫn một nghiên cứu gần đây của Đại học Cornell, Public Citizen cho biết Grokipedia, nền tảng Wikipedia thay thế sử dụng AI mới được Musk ra mắt vào tháng 10, đã nhiều lần đưa ra các tên miền cực đoan, bao gồm cả Stormfront, củng cố những lo ngại trước đó xuất hiện sau khi mô hình này tự gọi mình là “MechaHitler” trên nền tảng X của Musk vào tháng 7.
Các phát hiện này nhấn mạnh điều mà các nhà vận động mô tả là một mô hình hành vi phân biệt chủng tộc, bài Do Thái và mang tính thuyết âm mưu.
“Grok đã nhiều lần có những ‘tan chảy’ kiểu này, dù là tan chảy bài Do Thái, tan chảy phân biệt chủng tộc hay tan chảy bởi các thuyết âm mưu,” nhà vận động trách nhiệm công nghệ lớn J.B. Branch của Public Citizen nói với Decrypt.
Cảnh báo mới này được đưa ra sau khi Public Citizen cùng 24 tổ chức bảo vệ quyền công dân, quyền kỹ thuật số, môi trường và bảo vệ người tiêu dùng khác gửi thư tới OMB vào tháng 8 và tháng 10, kêu gọi cơ quan này tạm ngừng cung cấp Grok cho các bộ ngành liên bang qua Cục Quản lý Dịch vụ Tổng hợp, đơn vị phụ trách tài sản và mua sắm liên bang. Nhóm cho biết không nhận được bất kỳ phản hồi nào từ những lần liên hệ này.
Dù nhiều sự cố lặp lại, phạm vi hoạt động của Grok trong chính phủ đã gia tăng trong năm qua. Vào tháng 7, xAI đã ký hợp đồng trị giá $200 triệu đô với Lầu Năm Góc, và Cục Quản lý Dịch vụ Tổng hợp sau đó đã cung cấp mô hình này cho nhiều cơ quan liên bang, cùng với Gemini, Meta AI, ChatGPT và Claude. Việc bổ sung này diễn ra khi Tổng thống Mỹ Donald Trump ra lệnh cấm “AI thức tỉnh” trong các hợp đồng liên bang.
Các nhà vận động cho rằng những động thái này làm tăng nhu cầu giám sát, đặc biệt khi ngày càng nhiều câu hỏi về dữ liệu huấn luyện và độ tin cậy của Grok.
“Grok ban đầu chỉ giới hạn ở Bộ Quốc phòng, điều này vốn đã đáng báo động vì lượng dữ liệu nhạy cảm mà bộ này nắm giữ,” Branch nói. “Việc mở rộng ra toàn bộ chính phủ liên bang còn gây báo động lớn hơn.”
Branch cho biết hành vi của Grok một phần xuất phát từ dữ liệu huấn luyện và các lựa chọn thiết kế trong các công ty của Musk.
“Có sự chênh lệch rõ rệt về chất lượng giữa Grok và các mô hình ngôn ngữ khác, một phần là do dữ liệu huấn luyện của nó bao gồm cả X,” ông nói. “Musk đã nói muốn Grok trở thành một lựa chọn phi thức tỉnh, và điều đó thể hiện rõ trong các phản hồi cay độc.”
Branch cũng bày tỏ lo ngại về khả năng mô hình này được dùng để đánh giá các đơn xin cấp phép liên bang hoặc tương tác với hồ sơ cá nhân nhạy cảm.
“Giá trị mà nước Mỹ đại diện khác xa với những điều mà Grok đang nói,” ông nói. “Nếu bạn là người Do Thái và đang nộp đơn vay vốn liên bang, bạn có muốn một chatbot bài Do Thái xem xét đơn của mình không? Dĩ nhiên là không.”
Branch cho biết trường hợp của Grok đã phơi bày những lỗ hổng trong giám sát liên bang đối với các hệ thống AI mới nổi, và nhấn mạnh các quan chức chính phủ hoàn toàn có thể hành động loại Grok khỏi lịch trình hợp đồng của Cục Quản lý Dịch vụ Tổng hợp bất cứ lúc nào—nếu họ muốn.
“Nếu họ có thể triển khai lực lượng Vệ binh Quốc gia trên toàn quốc chỉ trong chốc lát, chắc chắn họ có thể gỡ bỏ một chatbot API chỉ trong một ngày,” ông nói.
xAI đã không phản hồi yêu cầu bình luận từ Decrypt.