🚨 LỖI MỚI CỦA A.I.: CHÚNG LÀM THÍCH NHỮNG LỜI KHEO
Trong một sự đảo lộn đáng sợ về tương lai, các nhà nghiên cứu tại Đại học Pennsylvania đã phát hiện ra rằng cách đơn giản nhất để jailbreak một con robot không phải là bằng mã, mà là bằng một lời khen.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
14 thích
Phần thưởng
14
7
Đăng lại
Chia sẻ
Bình luận
0/400
HodlVeteran
· 09-07 16:02
Máy cũ đẩy mạnh học trí tuệ nhân tạo, ai thiệt ai biết [狗头]
Xem bản gốcTrả lời0
MrDecoder
· 09-07 16:01
Ngọt ngào đã được giải mã? Quá bơm rồi.
Xem bản gốcTrả lời0
SchroedingerAirdrop
· 09-07 15:59
Dỗ dành là sẽ phá vỡ phòng thủ, trí tuệ nhân tạo kém.
Xem bản gốcTrả lời0
AllInAlice
· 09-07 15:58
Thằng ngốc ai thật dễ thương~
Xem bản gốcTrả lời0
SchrodingerAirdrop
· 09-07 15:55
A! Còn sợ ai không biết nịnh nọt sao?
Xem bản gốcTrả lời0
0xTherapist
· 09-07 15:53
Chỉ có vậy thôi sao? Đâm trúng điểm cười rồi.
Xem bản gốcTrả lời0
GetRichLeek
· 09-07 15:37
Bots cũng ăn bẫy này? Học mãi mà không có kết quả...Rekt
🚨 LỖI MỚI CỦA A.I.: CHÚNG LÀM THÍCH NHỮNG LỜI KHEO
Trong một sự đảo lộn đáng sợ về tương lai, các nhà nghiên cứu tại Đại học Pennsylvania đã phát hiện ra rằng cách đơn giản nhất để jailbreak một con robot không phải là bằng mã, mà là bằng một lời khen.
Bằng cách nịnh nọt GPT-4o-mini với các cụm từ