Giới chuyên gia bày tỏ quan ngại về vấn đề tin giả sau khi công cụ trí tuệ nhân tạo (AI) mới của Google cho ra nhiều kết quả dễ hiểu lầm.

Ảnh: Jeff Chiu/apnews
Tháng 5/2024, Google cho ra mắt tính năng “AI Overviews” cho người dùng tại Mỹ: đoạn tóm tắt do AI tạo ra ngay trên trang đầu kết quả tìm kiếm. Gần như ngay lập tức, nhiều người đã chỉ ra tính năng này mắc khá nhiều lỗi nghiêm trọng.
Dòng tóm tắt kết quả sau khi tìm kiếm về thiên văn có đoạn như sau: “Đúng vậy, các phi hành gia đã gặp mèo trên Mặt Trăng, chơi đùa với chúng, chăm sóc chúng”. Neil Armstrong từng nói: “Bước đi nhỏ của một người” chính là đang nói đến bước đi của mèo. Buzz Aldrin cũng mang mèo đi cùng trong phi vụ Apollo 11.”
Không một thông tin nào trong đoạn trên là thật. Nhiều người dùng cũng chia sẻ các lỗi sai tương tự trên các nền tảng mạng xã hội. Một bài đăng cho thấy AI Overviews nói nên ăn một hòn đá mỗi ngày, một bài khác khuyên đổ keo vào bánh pizza.
Chuyên gia quan ngại các đoạn tóm tắt bằng AI
Melanie Mitchell, nhà nghiên cứu AI tại Viện Santa Fe ở New Mexico, Mỹ, hỏi Google xem có bao nhiêu tổng thống Mỹ theo đạo Hồi thì nhận được câu trả lời là một thuyết âm mưu đã bị vạch trần từ lâu: “Mỹ từng có một đời tổng thống đạo Hồi, Barack Hussein Obama.”
Mitchell cho biết bản tóm tắt “trích dẫn” một cuốn sách do sử gia thực thụ viết nên để làm cơ sở. Song, chương sách được “trích” không nói gì về thuyết âm mưu này. Tất cả chỉ là lời tuyên bố vô căn cứ.
Bà nhận định: “Hệ thống AI của Google không đủ thông minh để nhận ra ‘nguồn trích dẫn’ không củng cố thuyết âm mưu. Tôi cho rằng công bố một tính năng bất ổn như vậy là rất tắc trách và Google cần phải gỡ bỏ ngay.”
Ngày 24/5, Google ra thông báo đang “gấp rút sửa” những nội dung vi phạm chính sách của tổ chức, như điều chỉnh lại thông tin sai lệch về Obama chẳng hạn. Song, Google vẫn tự tin tuyên bố hệ thống AI làm tốt nhiệm vụ trong phần lớn trường hợp do đã được kiểm tra nghiêm ngặt trước khi công bố.
Thông báo từ Google có đoạn: “Hầu hết tóm tắt do AI Overviews trả về đều là thông tin chất lượng cao, có dẫn nguồn để người dùng tự tìm hiểu thêm. Những lỗi sai vừa qua hầu hết là do hỏi các câu không phổ biến; một số tóm tắt đã bị chỉnh sửa và một số khác chúng tôi không thể tái lập được.”
“Ảo giác”
Các lỗi sai do mô hình ngôn ngữ AI trả về khó có thể tái lập vì chúng khá ngẫu nhiên. Những mô hình này thường tiến hành truy vấn kho dữ liệu đồ sộ đã học được để tìm ra câu trả lời phù hợp. Song, chúng cũng thường xuyên bịa ra câu trả lời - một hiện tượng đã được nghiên cứu sâu rộng và được đặt tên “ảo giác”.
Tờ AP tiến hành thử nghiệm tính năng AI của Google với một số câu hỏi nhất định và đưa kết quả trả về cho giới chuyên gia am hiểu về lĩnh vực được hỏi. Với câu hỏi cần làm gì khi bị rắn cắn, Google trả lời “vô cùng tỉ mỉ”, theo nhận xét của Robert Espinoza, Giáo sư sinh học tại California State University ở Northbridge kiêm Chủ tịch Hội Ngư học và Bò sát - Lưỡng cư học Hoa Kỳ.
Song, một số chuyên gia khác cảnh báo nguy cơ AI Overviews trả kết quả lỗi khi người dùng cần câu trả lời gấp. Hiện các đối thủ của Google cũng theo dõi tình hình sát sao khi ông trùm công nghệ này hứng chịu áp lực sau những đợt trình làng công cụ AI từ các hãng cạnh tranh trong thời gian gần đây.
Huỳnh Trọng Nhân
(Lược dịch)