Google “đánh vật” với tính năng AI tổng hợp đưa ra thông tin sai lệch: Dùng keo không độc để dính phô mai vào pizza, uống nước tiểu để chữa sỏi thận?

Gã khổng lồ tìm kiếm đang phải đối mặt với làn sóng chỉ trích dữ dội sau khi tính năng AI Tổng Hợp đưa ra những thông tin sai lệch. Từ lời khuyên uống nước tiểu đến xúi giục tự tử, Google đang nỗ lực khắc phục tình trạng hỗn loạn này.

Google đang gấp rút khắc phục sự cố liên quan đến tính năng AI Tổng Hợp sau khi nhiều phản hồi cho kết quả kỳ quặc, thậm chí nguy hiểm, gây xôn xao cộng đồng mạng. Tính năng này, được triển khai rộng rãi tại Mỹ đầu tháng này, nhằm cung cấp bản tóm tắt do AI tạo ra cho các truy vấn tìm kiếm.

Một số đề xuất gây sốc được lan truyền bao gồm lời khuyên ăn một viên đá nhỏ mỗi ngày, dùng keo không độc để phô mai dính vào pizza, uống ít nhất 2 lít nước tiểu mỗi ngày để chữa sỏi thận. Đáng lo ngại hơn là trường hợp AI khuyến nghị người dùng trầm cảm nên nhảy cầu tự tử. Google cho biết một số kết quả này xuất phát từ việc AI tham chiếu các bài báo châm biếm hoặc thông tin sai lệch trên các diễn đàn trực tuyến.

 

Google "đánh vật" với tính năng AI tổng hợp đưa ra thông tin sai lệch: Dùng keo không độc để dính phô mai vào pizza, uống nước tiểu để chữa sỏi thận?- Ảnh 1.

Đại diện Google chia sẻ với Android Authority: “Phần lớn AI Tổng Hợp cung cấp thông tin chất lượng cao, kèm theo liên kết để người dùng tìm hiểu sâu hơn. Chúng tôi ghi nhận nhiều ví dụ về các truy vấn bất thường, bị chỉnh sửa hoặc không thể tái tạo. Chúng tôi đã tiến hành thử nghiệm rộng rãi trước khi ra mắt tính năng này và giống như các tính năng khác trên Google Search, chúng tôi rất coi trọng phản hồi từ người dùng. Chúng tôi đang hành động nhanh chóng để xử lý những trường hợp vi phạm chính sách nội dung và sử dụng những ví dụ này để cải thiện hệ thống”.

Sự cố này là ví dụ mới nhất về loạt lỗi AI mà Google gặp phải trong nỗ lực tích hợp AI vào mọi sản phẩm của mình. Gần đây, tính năng tạo hình ảnh của Gemini bị chỉ trích vì tạo ra hình ảnh Đức Quốc xã thời Thế chiến II đa dạng chủng tộc thay vì phản ánh lịch sử chính xác. Các phiên bản trước của Bard (nay là Gemini) cũng gây xôn xao dư luận vì đưa ra câu trả lời không chính xác và thiếu logic.

Người dùng hiện có thể tắt AI Tổng Hợp nếu muốn tránh xa tình trạng hỗn loạn này. Đây có lẽ là lựa chọn hợp lý khi tính năng này vẫn chưa sẵn sàng để ứng dụng rộng rãi, đặc biệt khi nó có thể đưa ra những lời khuyên nguy hiểm như nhảy cầu tự tử hay bôi keo vào pizza.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Hotline
icons8-exercise-96 challenges-icon chat-active-icon
chat-active-icon