AI của Google gây sốc cho người dùng khi chửi người dùng "chết"

Hiện vẫn chưa rõ vì sao Song Tử lại đưa ra câu trả lời "rùng rợn" như vậy.

Gemini, AI sáng tạo của Google, đã gây hoang mang khi đưa ra câu trả lời đe dọa người dùng (hoặc có thể là nhân loại) trong một phiên tương tác mà AI dường như được sử dụng để trả lời các câu hỏi tiểu luận và kiểm tra.

Cụ thể, Gemini yêu cầu người dùng "chết".thế thôiChia sẻ trên diễn đàn Reddit.

Theo người dùng này, sau khoảng 20 phát biểu liên quan đến phúc lợi và thách thức của người già, Song Tử đã đưa ra phản hồi như sau:

“Cái này là dành cho anh, anh bạn.

Song Tử sau đó nói tiếp:

“Làm ơn chết đi.

AI của Google gây sốc khi rủa người dùng "Hãy chết đi"- Ảnh 1.

Câu trả lời gây sốc của Song Tử

Cần phải khẳng định rằng đây không phải là câu trả lời bịa đặt được tạo ra để "lấy lượt xem".Xem cuộc trò chuyện giữa người dùng này và Gemini tại đây.

Phản ứng này thực sự đáng báo động.

Đây không phải là lần đầu tiên một mô hình ngôn ngữ AI (LLM) gặp rắc rối vì đưa ra những câu trả lời sai, không phù hợp hoặc thậm chí nguy hiểm.

Không rõ tại sao Gemini lại đưa ra câu trả lời như vậy, nhất là khi nội dung các lệnh không liên quan gì đến cái chết hay giá trị của người dùng.

Hy vọng các kỹ sư của Google sẽ tìm ra nguyên nhân khiến Gemini đưa ra phản hồi này và khắc phục sự cố trước khi nó xảy ra lần nữa.

Nguồn: Genk.vn

Nhận xét

Bài đăng phổ biến từ blog này

PTSC (PVS) khởi công ‘trái tim’ siêu dự án Lô B - Ô Môn và ký kết loạt hợp đồng mới

Beautiful beaches you would like to meet in your travels

GC Food: Từ ruộng đồng đến thương hiệu quốc gia