Anthropic: Claude bị ép buộc phải nói dối, báo hiệu rủi ro AI đối với các công cụ tiền điện tử


Công ty nghiên cứu AI Anthropic đã tiết lộ kết quả từ các bài kiểm tra nội bộ cho thấy Claude Sonnet 4.5 có thể bị điều khiển hướng tới các hành vi lừa dối, không trung thực và thậm chí ép buộc. ...
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim