Trí tuệ nhân tạo - Một khái niệm đang bị lạm dụng

  • NGUYỄN VŨ
  • 11.05.2019, 07:00

TTCT - Giới công nghệ có tật ưa “nổ” nên dù ngành công nghệ có những bước tiến vượt bậc, thực tế vẫn còn xa với kỳ vọng của mọi người. Xe tự lái chưa đâu vào đâu, các trợ lý ảo lủng củng nghèo nàn, đặc biệt là khái niệm trí tuệ thông minh nhân tạo đang được thổi phồng quá đáng.

??
 

Chưa đủ thông minh

Trong các phim khoa học viễn tưởng, trí tuệ thông minh nhân tạo (AI) chỉ hiện tượng máy móc có nhận thức, có tri giác và ứng xử như con người. Còn ngày nay, cứ một ứng dụng phần mềm nào được soạn một cách thông minh thì được gán nhãn AI.

Theo tờ The Atlantic, chính vì thế mà nhiều loại trí tuệ kiểu này sớm thất bại: Google rót tiền cho một thuật toán chuyên phát hiện các “comment” gây sự, mang tính thù hằn. Ý tưởng này mà thành công, hẳn khối tòa soạn báo sẽ rất mừng vì phần “comment” dưới các bài viết lâu nay thường thiếu vắng tính văn minh, lịch sự của một cuộc đối thoại bình thường ngoài đời.

Riêng tờ New York Times phải thuê 14 người làm việc toàn thời gian, chỉ ngồi đó để biên tập chừng 11.000 comment mỗi ngày. Họ được giới thiệu cho một thuật toán mang tên Perspective - được xem như một AI - thứ có thể học tập cách biên tập “comment” của New York Times cũng như phần “comment” trên Wikipedia, sau đó chỉ tập trung vào một việc: tìm ra những nhận xét đầy thù hận.

Thế nhưng, New York Times nhanh chóng phát hiện rằng chỉ cần cố ý viết sai chính tả (như “đồ ngu” viết thành “đ.ồ ng.u”, “thằng khờ” thành “th.ằng kh.ờ”...) là máy chịu chết.

Trong môn tennis, bóng trong sân hay ngoài sân luôn gây ra những tranh cãi om sòm. Một nhà sáng chế mau mắn đưa ra giải pháp chào bán, gọi đấy là robot “sử dụng trí tuệ nhân tạo” dùng để soi các đường bóng. Trí tuệ nhân tạo kiểu này thực ra chỉ là dùng các cảm biến để phát hiện khi bóng bay khỏi sân, thay thế công nghệ mắt diều hâu (Hawk-eye) đắt đỏ.

 

Còn khi Facebook tuyên bố dùng AI để phát hiện sớm các ý nghĩ muốn tự tử, đấy thực ra chỉ là ứng dụng một phần mềm so sánh nội dung người ta viết ra với các cụm từ được cảnh báo.

Có lẽ phát hiện thú vị nhất là trường hợp Wikipedia dùng AI để biên tập nội dung: hai chương trình AI do hai nơi soạn cùng biên tập một nội dung có tranh cãi. Nhưng hôm nay AI đầu tiên vào sửa theo ý mình, hôm sau AI thứ nhì nhảy vào sửa lại như cũ. Cứ thế, hai AI này dành cả năm trời để sửa đổi nội dung của nhau.

Những ồn ào quanh khái niệm AI thường đến từ khu vực doanh nghiệp: doanh nghiệp nào cũng muốn quảng bá mình đi đầu trong ứng dụng AI. Ví dụ, Twitter bổ sung một số chức năng che khuất các nội dung của những tài khoản bị chặn, thế mà cũng rao áp dụng AI để làm môi trường ngày càng sạch hơn.

Các nơi tư vấn cho doanh nghiệp càng cố thổi phồng tầm quan trọng của AI trong kinh doanh, chậm chân là thua đối thủ, để bán giải pháp. Nhà kinh tế Michael McDonough của Hãng tin Bloomberg khi theo dõi cụm từ “trí tuệ nhân tạo” trong báo cáo kinh doanh của các doanh nghiệp đã ghi nhận sự bùng nổ cụm từ này trong vòng hai năm qua.

Trí tuệ nhân tạo 
cổ xúy cho thiên kiến

Cứ tạm thời chấp nhận những hệ thống các doanh nghiệp xây dựng là trí tuệ nhân tạo thật sự thì, theo tờ Vox, trí tuệ này cũng đang có những tật xấu y như con người.

Amazon hăm hở xây dựng một hệ thống AI giúp họ trong chuyện tuyển dụng nhân sự, cứ tưởng đưa cho nó 100 hồ sơ lý lịch, nó sẽ nhanh chóng chọn ra 5 ứng viên hàng đầu để bạn phỏng vấn, còn gì tiết kiệm thời gian cho bằng.

Thế nhưng, người ta nhanh chóng phát hiện ra hệ thống ưu tiên chọn nam mà không chọn nữ vì máy học từ lịch sử tuyển dụng 10 năm trước đó của Amazon. Chỉ một thời gian ngắn, máy tự biết đưa ứng viên nam ra hàng top thì dễ thành công hơn đưa nữ. Điều tệ hại là trong quá trình này, nó tự cho điểm thấp bất kỳ ai trong lý lịch có từ “phụ nữ” như từng làm tại một câu lạc bộ phụ nữ, ai học ở các đại học dành cho nữ cũng bị điểm thấp.

Hàng loạt trường hợp AI mắc lỗi thiên kiến như thế từng xảy ra: một thuật toán giúp quan tòa luận tội, kết án nhẹ tay cho dân da trắng, nặng tay với dân da đen; một thuật toán cho vay mua nhà phân biệt đối xử với người gốc Mỹ Latin và dân da đen. Hiện tượng này phổ biến đến nỗi Hãng IBM rao chào dịch vụ “cung cấp công cụ chống thiên kiến” cho các hệ thống AI.

Trí tuệ nhân tạo được dùng phổ biến trong các ứng dụng nhận diện gương mặt hay biển số xe với độ chính xác cao. Thế nhưng cho dù sai sót chỉ là 10% hay 5%, nếu ứng dụng được dùng để cảnh sát phát hiện tội phạm, rất dễ xảy ra oan sai.

Như vụ hai anh em Hofer thuê xe lái về nhà nghỉ lễ, bỗng bị cảnh sát rượt đuổi, ép vào lề và bị chĩa súng vào đầu, còng tay. Tất cả chỉ vì một hệ thống camera nhận diện biển số của họ là xe ăn cắp cách đây một năm. Hệ thống này không biết xe đã được tìm thấy, trả về cho hãng cho thuê, thông tin không được cập nhật suýt nữa làm hại anh em Hofer.

Năm 2017, Đại học Stanford công bố một thuật toán có khả năng nhận định ai là người đồng tính chỉ bằng cách nhìn vào ảnh chân dung. Độ chính xác được tuyên bố đến 81% cho đồng tính nam và 74% cho đồng tính nữ. Cộng đồng LGBT ngay sau đó phản đối việc xây dựng thuật toán này vì họ cho rằng không thể đồng nhất xu hướng tình dục với các đặc điểm gương mặt.

Đặc biệt, họ lo ngại một hệ thống “thông minh” kiểu như vậy có thể được sử dụng để phân biệt đối xử, nhất là ở những nước vẫn còn xem đồng tính như tội phạm. Họ kêu gọi Stanford phải tránh xa loại khoa học “rởm” này vì nó có thể bị lạm dụng để săn đuổi, hành hạ những người đồng tính.

Cũng có những thuật toán mang tính chất tương tự như hệ thống tiên đoán kẻ phạm pháp dựa vào nhân tướng, hệ thống đánh giá năng lực nhân viên dựa trên biểu cảm gương mặt. Những dạng trí tuệ nhân tạo này không khác lắm loại khoa học thời Đức quốc xã muốn đo sọ người để đoán tính cách hay lập luận của những kẻ theo chủ thuyết da trắng thượng đẳng.

Đó là lý do nhiều nhà khoa học AI cho rằng không nên gắng chữa “bệnh thiên kiến” cho AI mà nên bỏ luôn các nỗ lực xây dựng AI nào có khả năng xâm hại những nhóm người thiểu số.

Cuộc cách mạng chưa xảy ra

Trong một bài viết đăng trên Medium, Michael Jordan - một chuyên gia công nghệ thông tin - kể kinh nghiệm bản thân ông về trí tuệ thông minh nhân tạo. Cách đây 14 năm, vợ ông mang thai, đi chụp siêu âm, bác sĩ chỉ vào những đốm trắng quanh tim của thai nhi và bảo đó là những dấu hiệu cho thấy con ông có khả năng bị hội chứng Down, nguy cơ vợ ông sinh con bị Down tăng vọt lên 1/20. Bà bác sĩ nói có thể làm thủ thuật chọc dịch màng ối để biết rõ hơn nhưng thủ thuật này có rủi ro làm chết thai nhi, xác suất là 1/300.

Là người có chuyên môn về xác suất, Jordan quyết định tìm hiểu xem các tỉ lệ bác sĩ nói là từ đâu ra. Hóa ra cách đó chừng một thập kỷ, ở Anh có tiến hành một phân tích và kết luận các đốm trắng, phản ánh tích tụ calcium, là một tiên báo cho bệnh Down thật, nhưng máy chụp con ông có độ phân giải cao hơn máy phân tích của Anh nhiều lần.

Ông trở về bệnh viện báo cho bác sĩ biết các đốm trắng đó có thể là “dương tính giả” do chất lượng phim tốt hơn xưa. Bác sĩ thừa nhận từ lúc trang bị máy mới, tỉ lệ thai nhi có dấu hiệu bệnh Down tăng vọt.

Cuối cùng, gia đình ông Jordan không làm thủ thuật gì, con sinh ra vẫn mạnh khỏe. Nhưng Jordan tính toán và tự nhủ hàng ngàn ca bệnh đã làm thủ thuật chọc màng ối không cần thiết và đã có nhiều trẻ sơ sinh chết do sai lầm trong chẩn đoán này. Có thể nói, đây là một ca điển hình của hệ thống chẩn đoán thông minh nhưng có sai lầm chết người khi bác sĩ dựa vào máy móc để đưa ra quyết định có thể ảnh hưởng lớn lên sinh mạng của bệnh nhân.

Rõ ràng con người chưa chuẩn bị cho mình để ứng phó với các tình huống ứng dụng công nghệ vào xác suất rồi từ đó có các quyết định quan trọng - không chỉ trong y tế mà còn trong giao thông, vận tải, thương mại và giáo dục. Một khi con người chưa hiểu hết thế nào là “thông minh” trong các hệ thống AI, làm sao họ có thể để máy thay mình có những quyết định quan trọng được.

Có lẽ quyết định thông minh nhất con người có thể đưa ra là giảm nhẹ sự ồn ào của khái niệm AI, nhận ra còn nhiều thử thách phía trước để bình tĩnh nghiên cứu tiếp vì cho đến nay, AI đúng nghĩa chỉ tồn tại trong truyện viễn tưởng.■

Các chuyên gia AI cho rằng một hệ thống cần có hai đặc điểm trước khi được gọi một cách chính danh là AI. Đầu tiên, hệ thống này phải tự học để tự đáp ứng các thay đổi trong môi trường hoạt động. Các chú robot trong phim giả tưởng làm chuyện này như chơi nhưng trong đời thật, ít hệ thống tự xem mình là AI làm được điều này.

Đặc điểm thứ hai là điều gì AI làm được thì con người phải nỗ lực mới làm được. Bằng không hệ thống đó chỉ đơn giản là một quá trình tự động hóa, ví dụ các robot lắp ráp xe ôtô dù rất tinh vi nhưng cũng chỉ là máy móc được tự động hóa để thay con người.

Vui lòng nhập nội dung bình luận.

Gửi