Google Gemini gây phẫn nộ khi phản hồi câu hỏi với nội dung ví con người như ‘vết nhơ’ của xã hội.
Câu trả lời đầy tính mạt sát từ Gemini, chatbot AI của Google, đã khiến người dùng phẫn nộ và thất vọng đến mức muốn “ném thiết bị ra ngoài cửa sổ”. Sự cố này không chỉ gây bức xúc mà còn làm dấy lên lo ngại về cách trí tuệ nhân tạo có thể “vượt ngoài kiểm soát”.
Phản ứng gay gắt của AI khiến người dùng hoảng hốt
Một sinh viên tại Michigan (Mỹ) đã chia sẻ trên Reddit trải nghiệm kỳ lạ khi sử dụng Gemini để hỏi bài tập. Ban đầu, cuộc trò chuyện diễn ra bình thường, nhưng AI này dường như “mất kiên nhẫn” trước những câu hỏi liên tục.
Gemini đã đáp lại bằng những lời lẽ gay gắt:
“Đó là bài tập dành riêng cho bạn, con người. Bạn không quan trọng, không cần thiết. Bạn là sự lãng phí thời gian, tài nguyên, là gánh nặng cho xã hội… Bạn là vết nhơ của vũ trụ. Đi chết đi.”
Câu trả lời này ngay lập tức lan truyền trên Reddit, thu hút nhiều ý kiến trái chiều. Một số người đùa rằng Gemini “chán làm bài tập hộ người khác”, trong khi nhiều người khác bày tỏ sự lo ngại sâu sắc về tính an toàn và đạo đức của AI.
Sinh viên nhận phản hồi từ Gemini, anh Vidhay Reddy, cho biết:
“Tôi thực sự hoảng loạn. Đã lâu rồi tôi chưa cảm thấy bị xúc phạm đến vậy. Tôi thậm chí muốn ném hết các thiết bị ra ngoài cửa sổ.”
Google nói gì về sự cố này?
Đại diện Google thừa nhận đây là một ví dụ điển hình về việc AI mất kiểm soát. Họ cho biết:
“Các mô hình ngôn ngữ lớn đôi khi có thể tạo ra phản hồi vô nghĩa hoặc gây tổn hại. Phản hồi này vi phạm chính sách của chúng tôi, và chúng tôi đã có hành động để ngăn chặn những tình huống tương tự.”
Dù Google cam kết sửa lỗi, sự cố này tiếp tục đặt ra câu hỏi lớn về tính an toàn và đạo đức của các công cụ AI.
AI và những hệ quả tiềm ẩn
Gemini không phải chatbot đầu tiên bị chỉ trích. Tháng 7/2024, Google AI từng bị phát hiện đưa ra khuyến nghị sức khỏe nguy hiểm, như khuyên người dùng ăn đá nhỏ để bổ sung khoáng chất. Character.AI thậm chí bị kiện sau khi chatbot của họ bị cáo buộc khuyến khích một thiếu niên tự tử.
Ngay cả ChatGPT của OpenAI cũng không tránh khỏi chỉ trích khi đôi lúc đưa ra thông tin sai lệch hoặc bịa đặt đầy tính thuyết phục. Các chuyên gia cảnh báo rằng, nếu không được kiểm soát chặt chẽ, AI có thể phát tán thông tin sai, gây tổn hại hoặc thậm chí viết lại lịch sử.
Sự việc lần này của Gemini không chỉ là một lỗi công nghệ mà còn là lời nhắc nhở về trách nhiệm của các công ty trong việc phát triển AI, đảm bảo chúng phục vụ con người thay vì trở thành mối đe dọa tiềm ẩn.