Những ai cần đến “bình luận ảo” trên báo mạng?

  • TRÚC ANH
  • 27.10.2019, 06:18

TTCT - Đã có các phần mềm trí tuệ nhân tạo (AI) chuyên viết nhận xét “cò mồi” trên các trang thương mại điện tử, thì nay lại có thêm thuật toán có thể đọc các bài báo điện tử rồi viết bình luận như thật.

AI giờ đây có thể đọc báo và viết bình luận như con người.
AI giờ đây có thể đọc báo và viết bình luận như con người.

Các trang báo mạng không mong gì hơn là bài viết vừa có “view” (lượt xem) cao vừa thu hút comment (bình luận, gọi vui là “còm”) của bạn đọc rôm rả. Đọc một bài viết rồi kéo xuống không thấy ai “còm” sẽ gây ấn tượng trang báo buồn tẻ, không ai quan tâm. Chưa kể dưới một bài viết mà càng có nhiều bình luận dẫn đến tranh luận, thậm chí cãi nhau, thì view sẽ càng tăng, vì bạn đọc cứ ra vô để coi có ai hồi đáp bình luận của mình chưa. 

Có thể nhóm nghiên cứu của Hãng Microsoft và Đại học Beihang (Trung Quốc) đã nghĩ vậy khi tạo ra DeepCom, thuật toán AI biết đọc bài báo thật và viết bình luận “giả”, để giúp các tòa báo giải quyết khâu bình luận “cò mồi”. Đương nhiên các tòa soạn có thể phân bố nhân sự đóng vai “chim mồi”, đi bình luận khắp nơi trên chính tờ báo của mình. Song nhân sự đó cũng đòi hỏi có “trình độ” một chút, phải đọc và “còm” đúng trọng tâm, chứ đâu thể ca đi ca lại kiểu “bài viết hay quá”, “tôi đồng ý với tác giả” dưới mọi bài viết, rất dễ... lộ.

Trong báo cáo khoa học công bố trên trang arXiv, nhóm nghiên cứu cho biết DeepCom có tính đến tình huống trên: thuật toán này đọc xong mới bình luận, chứ không “hồ đồ” chỉ mới đọc tít đã nhảy bổ vào viết nhận xét.

Để làm được điều đó, DeepCom được xây dựng với hai mạng nơron nhân tạo (neural network) riêng biệt. Mạng đầu tiên sẽ lo việc “đọc”, tức phân tích các thành phần chính của một bài báo - tít tựa, sapô (lời dẫn), nội dung - để lọc ra các ý chính, thú vị. Dữ liệu này sẽ chuyển cho nơron nhân tạo thứ hai để biên thành câu văn hoàn chỉnh.

Nhóm nghiên cứu đã huấn luyện AI này bằng cách cho phân tích các bài báo mạng kèm phần bình luận bằng cả tiếng Trung lẫn tiếng Anh. Hệ thống sẽ được “dạy” để tìm các chi tiết, tên riêng nào vừa xuất hiện trong bài viết vừa có trong phần bình luận, và tự rút ra kết luận đó là các ý quan trọng, cần khai thác để viết bình luận cho đúng trọng tâm.

Chẳng hạn, khi được cho “đọc” bài phân tích phim và phần bình luận, DeepCom sẽ tự rút ra được tên các diễn viên có trong bài và viết bình luận về họ. Các nhà nghiên cứu viết trong báo cáo DeepCom, hay “hệ thống tạo bình luận cho tin tức tự động”, sẽ rất “hữu ích cho các ứng dụng thực tế”, chẳng hạn giúp các trang báo mạng có thêm tương tác và lượt xem từ người đọc, khuyến khích họ đưa ra ý kiến, chia sẻ thông tin bằng các trả lời các “comment mồi”.

Dù nhóm nghiên cứu tự tin rằng có hệ thống tự viết bình luận sẽ giúp các trang tin tức mới mở trở nên “đông đúc”, giúp các bài viết ít người bình luận trông “xôm tụ”, nhưng trong thời nhiễu nhương tin tức giả (fake news) hiện nay, cái gì “giả giả thật thật” cũng đều nhạy cảm.

Trang báo nào lại cần một hệ thống viết bình luận giả cho các bài viết của mình? Trang The Register (Anh) cho rằng câu trả lời chính là các trang web truyền bá tin tức giả. “Nếu anh đã sẵn sàng lừa bạn đọc của mình rằng có rất nhiều người (mà thực ra là AI) đã bình luận các bài viết trên trang của anh, thì rõ là ngay từ đầu anh đã không có ý định nói sự thật trên trang của mình” - tác giả Katyanna Quach viết.


Theo The Register, hệ thống này có thể bị lợi dụng để viết comment giả nhằm định hướng dư luận, viết nhận xét khen ngợi cho các bài viết PR trên báo, hay sâu xa hơn là kích động tranh cãi giữa bạn đọc là con người với máy tính thông qua các bình luận khiêu khích. Các nguy cơ này không phải là không thể xảy ra, dù trước mắt có thể tạm yên tâm rằng bình luận do DeepCom viết chỉ dài khoảng vài chục từ trở lại, khó mà đạt được các mục đích tiêu cực 
kể trên.

Điều thú vị là trong bài báo cáo công bố trên arXiv ngày 26-9, nhóm nghiên cứu chỉ toàn bàn chuyện tích cực của DeepCom. Sau khi The Register có bài nêu quan ngại, nhóm nghiên cứu đã công bố bài viết cập nhật, bổ sung thêm phần thừa nhận thuật toán này có thể “dẫn đến các vấn đề đạo đức”.

“Chúng tôi hiểu rằng người ta thường mong đợi bình luận dưới các bài báo là do con người viết ra... Vì thế có nguy cơ các cá nhân hay tổ chức có thể sử dụng kỹ thuật của chúng tôi để làm giả bình luận vì mục đích thao túng chính trị” - nhóm tác giả viết trong báo cáo có chỉnh sửa, đề ngày 1-10.■

Vui lòng nhập nội dung bình luận.

Gửi