Khi facebook tìm cách ngăn tự tử?

TRƯỜNG SƠN 14/12/2017 04:12 GMT+7

TTCT - Trong hơn 2 tỉ người dùng Facebook, có không ít người mang tâm trạng tuyệt vọng và có ý định muốn kết liễu đời mình. Mark Zuckerberg tự trao cho mình sứ mạng tìm cách ngăn chặn điều đó xảy ra với sự giúp sức của trí tuệ nhân tạo (AI).

AI sẽ ứng cứu kịp thời khi phát hiện dấu hiệu ai đó có ý định tự tử.
AI sẽ ứng cứu kịp thời khi phát hiện dấu hiệu ai đó có ý định tự tử.

 

Facebook tin rằng những người quẫn trí muốn từ giã cõi đời có thể sẽ nghĩ lại nếu ai đó xuất hiện kịp thời để an ủi, trò chuyện khiến họ nguôi ngoai, và AI có thể đóng vai trò phát hiện những người tuyệt vọng một cách hiệu quả.

Âm thầm “bắt bệnh”

Từ tháng 3, Facebook đã có chức năng cho phép người dùng ở Mỹ report (thông báo) nếu phát hiện ai đó có bài viết hay video trực tiếp (livestream) bi quan và dường như có ý định tự tử.

Một nhóm chuyên gia của Facebook sẽ tiếp nhận các tin báo và sẽ nhắn tin cho người đang quẫn trí qua Messenger, kèm theo các câu chia sẻ hay số điện thoại tư vấn, hỗ trợ. Nếu không muốn nhờ Facebook can thiệp, người dùng cũng có thể chọn trực tiếp chat với người đang muốn từ giã cõi đời đó và sẽ được Facebook gợi ý các mẫu câu chia sẻ hoặc an ủi.

Tính năng này cho thấy Facebook bắt đầu quan tâm đến an nguy của người dùng, nhất là khi chức năng livestream thường bị lợi dụng để phát trực tiếp cảnh... tự tử.

Song, nhược điểm của nó là nếu một người thường xuyên chia sẻ những điều tiêu cực và thực sự có ý định tự tử, nhưng không ai nhận ra để báo cho Facebook, sẽ không có can thiệp kịp thời. Facebook đã khắc phục chuyện này với AI, thông qua công nghệ nhận dạng mẫu (pattern recognition).

Thuật toán do Facebook phát triển sẽ tự động giám sát nội dung chia sẻ của người dùng (bài viết hoặc video livestream) 24/24 giờ và có thể nhận biết liệu một người có đang mang ý nghĩ muốn tự tử hay hủy hoại bản thân hay không để chủ động can thiệp ngay, thay vì phải chờ bạn bè của người đó phát hiện và kêu gọi giúp đỡ.

AI này cũng được thử nghiệm ở Mỹ từ tháng 3 và đang bắt đầu được nhân rộng ra các quốc gia khác, theo thông báo hôm 28-11 của Facebook. Tuy nhiên, người dùng châu Âu sẽ không có tính năng này vì có luật bảo vệ quyền riêng tư dữ liệu rất gắt gao.

Khi phát hiện tình huống, AI sẽ thông báo cho nhóm chuyên viên của Facebook và sàng lọc luôn mức độ nghiêm trọng - cần can thiệp ngay bằng cách báo cảnh sát, cứu hỏa hay các cơ quan xử lý khẩn cấp khác, hay chỉ ở mức có thể “tâm tình”, chia sẻ và an ủi.

Trong trường hợp thứ hai (không cần báo cơ quan chức năng), Facebook sẽ cung cấp cho người đang muốn giã từ cuộc sống các số điện thoại hữu ích, gợi ý người bạn mà họ có thể tâm sự, hoặc các “bí quyết” để vượt qua giai đoạn khó khăn đó.

Theo Facebook, việc AI có thể phát hiện và chủ động can thiệp có ý nghĩa rất lớn vì giúp tránh được tình trạng ai đó đang tuyệt vọng nhưng không ai để ý tới. “Khi bạn muốn giúp ai đó được an toàn, điều quan trọng là phải hành động ngay” - Mark Zuckerberg chia sẻ tại một diễn đàn hôm 29-11.

“Ông chủ Facebook” khẳng định trong tháng 10 vừa qua, khi được thử nghiệm ở Mỹ, AI đã phát hiện chính xác 100 người cần được hỗ trợ về tâm lý.

Nhưng AI làm thế nào để phát hiện ai là người đang có ý định từ giã cuộc sống? Phó chủ tịch phụ trách sản phẩm của Facebook Guy Rosen cho rằng hãng đã hợp tác với các tổ chức ngăn ngừa tự tử và các nhà nghiên cứu, song từ chối thông tin cụ thể thuật toán mà Facebook sử dụng.

Rosen chỉ đưa ra các ví dụ chung chung rằng hệ thống sẽ dựa vào các chỉ dấu như các từ khóa hay biểu hiện có liên hệ với tự tử, hoặc bài viết hay video nào mà có nhiều bình luận hỏi thăm hay lo lắng kiểu “cậu không sao chứ?” hoặc “em có cần giúp đỡ gì không?”.

Facebook nhấn mạnh sẽ cố gắng để có được đội ngũ chuyên gia phản hồi bất cứ lúc nào bằng ngôn ngữ bản địa của người cần giúp đỡ khi áp dụng công nghệ này ra khắp thế giới. Mạng xã hội này cũng thừa nhận vẫn đang cải tiến để AI nhận diện chính xác hơn và tránh trường hợp “báo động giả”.

minh họa

Những cách tiếp cận khác

Ý tưởng phân tích nội dung trên mạng xã hội để tìm hiểu tâm lý và tinh thần của người dùng không mới. Trong thời đại ngày nay, gần như ai cũng có “phiên bản ảo” trên mạng xã hội và những thông tin đó là mỏ vàng cho ai biết khai thác.

Các nhà quảng cáo có thể dựa vào đó để bán hàng, vậy tại sao giới khoa học, bác sĩ tâm lý không thể nhìn vào đó để chẩn bệnh?

Trong vài năm trở lại đây, giới nghiên cứu bắt đầu tiếp cận theo hướng xây dựng thuật toán phân tích cách dùng từ và các emoji (biểu tượng cảm xúc) của người dùng mạng xã hội để xác định các nhóm từ nào có liên quan với ý định muốn tự tử.

“Các nhà ngôn ngữ học, chuyên gia tâm lý và nhà khoa học máy tính nhận thấy tất cả những gì chúng ta chia sẻ trên mạng xã hội, và chia sẻ lúc nào, có thể là tín hiệu về sức khỏe tâm thần của ta” - Mashable nhận định.

Chẳng hạn, nhà khoa học dữ liệu và tâm lý học Glen Coppersmith (Mỹ) đã phát triển thuật toán có thể phát hiện ai đang có ý định tự tử bằng cách phân tích các tin nhắn trên Twitter.

Theo công bố của Coppersmith tại một hội nghị ngôn ngữ học năm ngoái, thí nghiệm cho thấy những người “muốn chết” dùng các emoji mang ý nghĩa buồn, như hình trái tim tan vỡ, thường xuyên hơn người bình thường. “Nhưng điều này không có nghĩa cứ ai dùng emoji này thì đều đang không muốn sống nữa” - Coppersmith lưu ý.

Công ty khởi nghiệp Bark.us lại cung cấp phần mềm AI để cha mẹ giám sát nội dung con trẻ chia sẻ trên mạng xã hội hay email. Phần mềm sẽ phân tích các nội dung này và nhận diện khi trẻ có dấu hiệu muốn tự tử hay bị bắt nạt và nhắn tin cho phụ huynh biết để can thiệp kịp thời.

Tương tự, phần mềm AI Buddy cho phép trẻ con trò chuyện với nhân vật ảo và hệ thống sẽ cảnh báo cha mẹ hay người giám hộ nếu trẻ bộc lộ ý định muốn tự tử thông qua các lần tâm tình với “người bạn AI”.

Google cũng có cơ chế giúp ngăn tự tử bằng cách thể hiện số điện thoại hỗ trợ mỗi khi ai đó tìm kiếm với từ khóa liên quan đến tự tử.

minh họa

Và những câu hỏi

Trên trang tin công nghệ The Register ngày 29-11, tác giả Katyanna Quach nêu một số băn khoăn về thuật toán của Facebook. Chẳng hạn liệu mạng xã hội này có “tiện tay” áp dụng AI để sàng lọc người dùng đang có ý định tự tử để chạy các quảng cáo về địa điểm nghỉ dưỡng hay dịch vụ tư vấn cho riêng họ hay không.

Tác giả đưa ra tình huống một người bỗng dưng nhận được thông báo của Facebook “có ai đó nghĩ rằng bạn đang cần giúp đỡ” dù họ đang “yêu người yêu đời” sẽ cảm thấy rất bực mình, và ngược lại, những người thật sự muốn kết liễu đời mình nhưng không bày tỏ gì trên Facebook sẽ bị AI “bỏ lọt”.

Trong bài bình luận trên Fortune ngày 30-11, Srini Pillay, chuyên gia tâm lý có nhiều đầu sách bán chạy, thẳng thắn gọi việc dùng AI để ngăn tự tử của Facebook là “ý tưởng tồi”.

Pillay nêu ra hàng loạt vấn đề thách thức nỗ lực của Facebook, chẳng hạn như các nghiên cứu đã chỉ ra rằng việc đào tạo ra các chuyên gia có thể dự đoán chính xác ai đang có nguy cơ tự tử là điều không tưởng, huống hồ là máy móc.

Tác giả dẫn một nghiên cứu cho thấy 83% những người đã tự tử đã có liên hệ với chuyên gia tâm lý trong vòng một năm trước khi chết và lập luận “được quan tâm trong đời thực là chưa đủ để người ta bỏ ý định muốn chết, nói gì được xoa dịu qua Facebook”.

Ngoài ra, việc thuật toán của Facebook sẽ đề xuất người bạn hay người thân mà đối tượng đang muốn tự tử nên tiếp xúc có thể gây tác dụng ngược nếu chính những người đó đang khiến ta tuyệt vọng đến mức muốn chết cho rồi.

Và sẽ ra sao nếu tính năng giám sát và ngăn tự tử của Facebook rốt cuộc sẽ khiến người ta e dè, không thèm chia sẻ gì nữa để bảo đảm khi ta tự kết thúc đời mình sẽ không ai can thiệp?

Cuối cùng, theo tác giả, không phải ai cũng “lên kế hoạch” cho chuyện tự tử. Đó có thể là những quyết định bất chợt và theo một số nghiên cứu, những người “bỗng dưng muốn chết” sẽ có xu hướng bộc lộ ít hơn những người đã có kế hoạch.

Và thuật toán của Facebook dựa theo nhận dạng mẫu, nếu lỡ người ta hé lộ ý định muốn chết không đúng như các mẫu mà AI đã học được thì sao?

Quá nhiều câu hỏi, không chỉ cho Facebook mà còn các nghiên cứu tương tự với niềm tin AI có thể là thần gác cổng cho những ai muốn từ bỏ cuộc sống.■

Với công nghệ nhận diện gương mặt, một công ty trí tuệ nhân tạo có tên Human phát triển hệ thống giám sát ở các ga tàu lửa hay tàu điện ngầm. Hệ thống có thể phát hiện các biểu hiện bồn chồn, buồn bã của các hành khách lảng vảng quanh đường ray và báo cho bảo vệ để ngăn họ không gieo mình vào đoàn tàu đang lao tới. Theo báo mạng The Memo, hệ thống này được dùng tại một số ga ở châu Âu, Mỹ và Canada.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận