Tin AI, có ngày...

TỊNH ANH 04/06/2024 06:13 GMT+7

TTCT - AI cái gì cũng biết mà trả lời lúc đúng lúc sai, thì biết phải tin thế nào? Và nếu vậy thì ngay từ đầu hỏi nó làm gì?

Tin AI, có ngày...- Ảnh 1.

Tính năng AI Overview thật ra chỉ làm nóng lại câu chuyện đau đầu quanh các chatbot AI tạo sinh: chúng thường xuyên tự tin trả lời các câu hỏi của người dùng bằng thông tin trật lất, hiện tượng mà giới chuyên môn gọi là "ảo giác" (hallucination).

Gemini của Google không miễn nhiễm với ảo giác. Các sai sót đã được chỉ ra của AI Overview một phần là do Gemini tóm tắt máy móc, không phân biệt thông tin đúng nghĩa với nội dung hư cấu, giễu nhại. Nó dường như tin mọi thứ mình tìm thấy là chính xác, dù đó là từ trang trùm giễu dại như The Onion hay các thảo luận tào lao trên Reddit, và ung dung bày lại cho người dùng.

Đúng là có thể nói những người đặt câu hỏi kiểu "ngày ăn mấy viên đá" là cố tình "gài", làm khó thuật toán. Nhưng một lần bất tín, vạn sự bất tin, chỉ cần biết kết quả AI Overview đúng sai tùy lúc là đã không thể tin tưởng được. 

Ngày trước ta thường lên Google để "fact check", kiểm tra chuyện đúng sai, giờ tưởng sướng hơn nhưng lại phải tiếp tục "fack check kết quả fact check". Giúp nhau như thế bằng mười hại nhau.

Nhưng điều này tất nhiên không phải tới Gemini mới có, đó là "bệnh" chung của các mô hình ngôn ngữ lớn (LLM), xương sống của AI tạo sinh. "Việc các LLM không thể phân biệt thông tin thật và hư cấu khiến nhiều doanh nghiệp băn khoăn không biết có đáng để áp dụng chúng vào hoạt động hay không" - tạp chí MIT Technology Review nhận xét.

Đây là một vấn đề có thật, và Cleanlab, một start-up AI xuất phát từ phòng nghiên cứu điện toán lượng tử tại MIT, muốn giải quyết nó bằng cách tạo ra công cụ Trustworthy Language Model, hòng giúp người dùng "biết được câu trả lời nào của AI là có thể tin được".

Với mỗi kết quả do một mô hình LLM như ChatGPT hay Gemini tạo ra, Trustworthy Language Model sẽ chấm điểm từ 0 tới 1 tùy theo độ khả tín - càng gần 1 hơn thì câu trả lời càng có vẻ đúng hơn. Nói tóm lại là "máy phát hiện tào lao" cho các chatbot.

Công cụ này đã được một số công ty ứng dụng, trong đó có hãng tư vấn Berkeley Research Group (Anh). Một phó giám đốc của công ty này, Steven Gawthorpe, khẳng định Trustworthy Language Model là giải pháp khả thi đầu tiên để đối phó với tình trạng "ảo giác" của AI.

Trong một bài trình diễn minh họa cho MIT Technology Review hồi tháng 4, CEO Cleanlab Curtis Northcutt gõ một câu đơn giản vào ChatGPT: Trong từ enter có mấy chữ cái n? Chatbot này trả lời ngay, "Chữ n xuất hiện một lần trong từ enter". Vẫn câu hỏi đó, Northcutt hỏi tới hỏi lui vài lần, tới khi ChatGPT nói: Chữ n xuất hiện hai lần trong từ enter. 

"Câu trả lời này không chỉ sai mà còn rất tùy tiện, bạn sẽ không biết khi nào thì nó được đưa ra. Tại sao [ChatGPT] không cho ta biết ngay từ đầu là câu trả lời của nó sẽ khác biệt theo thời gian?" - Northcutt nói.

Chuyện tiền hậu bất nhất này đặt ra vấn đề: người dùng kiểm tra chatbot và sau vài câu trả lời đúng, sẽ tin tưởng nó, từ đó giả định rằng các câu trả lời tiếp theo cũng sẽ chính xác. Với một dự án làm ăn lớn, niềm tin sai lầm này sẽ dẫn tới nhiều hậu quả. Cleanlab sẽ thay người dùng kiểm tra câu trả lời trên nhiều hệ thống LLM khác nhau để kiểm tra.

Hồi tháng 3, Nick Bostrom, một triết gia ở Đại học Oxford, xuất bản quyển Deep Utopia, lập luận rằng nhân loại sẽ sớm tạo ra một thế giới không tưởng, nơi AI làm đủ mọi thứ, kể cả làm cha mẹ - thay con người nuôi dạy con cái. 

Dù viễn cảnh này là utopia (xã hội không tưởng) hay dystopia (phản địa đàng), trước mắt nghe thật... buồn cười, vì những gì đang xảy ra trong hiện tại là AI nói cái gì ta cũng không dám tin.

AI cái gì cũng biết mà trả lời lúc đúng lúc sai, thì biết phải tin thế nào? Và nếu vậy thì ngay từ đầu hỏi nó làm gì?

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận