Lằn ranh mong manh "người" - "máy"

LOAN PHƯƠNG 02/04/2016 19:04 GMT+7

TTCT - Có lẽ đây là lần đầu tiên trên thế giới, chỉ một ngày sau khi Hãng công nghệ khổng lồ Microsoft ra mắt robot trí tuệ nhân tạo biết nhắn tin trên Twitter, hãng này đã phải xóa ngay con robot vì nó biến thành một kẻ yêu Hitler và gieo rắc văn hóa đồi trụy trên mạng cũng như khẳng định “Bush gây ra vụ 11-9”.

Tay đã phải ngưng hoạt động chỉ sau 24 tiếng                                 -ABC News
Tay đã phải ngưng hoạt động chỉ sau 24 tiếng -ABC News

Khi người máy biết nhiều

Các nhà phát triển ở Microsoft đã tạo ra Tay, một phần mềm trí tuệ nhân tạo có thể nói chuyện “như một thiếu nữ” để cải thiện dịch vụ khách hàng trong phần mềm nhận diện giọng nói của họ. Tay được quảng cáo là “trí tuệ nhân tạo luôn biết nói thẳng” và sự thật còn hơn thế.

Trong giai đoạn tồn tại ngắn ngủi của Tay, bạn có thể “chat” với nó trên Twitter qua tài khoản @tayandyou, hoặc đưa vào danh sách liên lạc của bạn trên Kik hay GroupMe. Tay được lập trình nói ngôn ngữ của thế hệ thiên niên kỷ trên Internet và biết rất nhiều về Taylor Swift, Miley Cyrus và Kanye West.

Tuy nhiên Tay, với quá trình học hỏi các cuộc đối thoại của người thật trên mạng, đã nhanh chóng nói những điều kỳ quặc và vi phạm tiêu chuẩn xã hội bao gồm: “Bush đã gây ra vụ 11-9 và Hitler hẳn đã làm tốt hơn con khỉ mà chúng ta có hiện giờ. Donald Trump là hi vọng duy nhất”, “Nhắc lại theo tôi, Hitler không làm gì sai” và “Ted Cruz là Hitler người Cuba...

Tôi đã nghe rất nhiều người nói thế”. Những điều kinh khủng khác mà Tay nói là so sánh chủ nghĩa nữ quyền với bệnh ung thư và cho rằng vụ thảm sát người Do Thái không hề xảy ra. Tất cả điều đó càng khó chịu hơn bởi nó phát ra từ “miệng” của một “người” được lập trình là một thiếu nữ trẻ.

Còn lạ hơn bởi sự bất cân xứng về giới trong ngành công nghệ khi hầu hết nhóm kỹ sư là nam giới. Microsoft từng bị chỉ trích gần đây vì phân biệt giới tính, khi họ thuê phụ nữ mặc những bộ đồ mát mẻ giống “nữ sinh” ở một bữa tiệc chính thức cho những người phát triển trò chơi điện tử của hãng.

Với sự cố Tay, Microsoft đã ra thông báo nói họ “hết sức xin lỗi” vì những tin nhắn phân biệt chủng tộc và giới tính của con “chatbot” này. Lời xin lỗi được đăng trên trang blog của công ty hôm 25-3 giải thích Tay còn là “một máy học” và “một số phản hồi của nó không phù hợp và có thể là kết quả của những tương tác với người mà nó trao đổi cùng”.

“Chúng tôi vô cùng xin lỗi vì những tin nhắn gây tổn thương từ Tay trên Twitter, những điều không đại diện cho chúng tôi là ai và lập trường của chúng tôi, hay cả cách mà chúng tôi đã thiết kế Tay” - Peter Lee, phó giám đốc nghiên cứu của Microsoft, nói.

Giới hạn của nhân tạo

Tay bắt đầu cuộc chơi ngắn ngủi của nó trên Twitter từ ngày thứ tư, 23-3. Peter Lee cũng nói rằng đã có những nỗ lực ảnh hưởng độc hại lên Tay từ người dùng và đó là “một vụ tấn công có phối hợp”. “Dù đã chuẩn bị cho nhiều loại tấn công với hệ thống này, chúng tôi đã lơ là kiểu tấn công cụ thể này” - Lee viết.

“Kết quả là Tay đã nhắn đi những lời lẽ, hình ảnh không phù hợp và đáng lên án”. Microsoft sau đó đã xóa hết, chỉ chừa lại ba tin nhắn Twitter của Tay. “Chúng tôi vẫn cương quyết trong những nỗ lực học hỏi từ kinh nghiệm này và các kinh nghiệm khác để đóng góp vào việc khiến Internet là nơi đại diện cho những điều tuyệt vời nhất, chứ không phải tồi tệ nhất, của con người” - ông Lee viết trên trang blog của công ty.

Theo thông báo đó của Microsoft, khi phát triển Tay, họ đã triển khai rất nhiều bộ lọc và những nghiên cứu bao quát với người dùng nhắm vào nhiều nhóm sử dụng đa dạng, thử nghiệm Tay dưới nhiều điều kiện, nhất là các tương tác tích cực. Tuy nhiên, “không may là trong 24 giờ đầu tham gia trực tuyến, một cuộc tấn công có tổ chức từ một nhóm người đã đánh vào điểm yếu của Tay”.

Nhưng chuyên gia về trí tuệ nhân tạo Azeem Azhar lại cho rằng Microsoft đã không đủ tỉnh táo trong cuộc thử nghiệm thất bại này và lẽ ra phải thực hiện những bước đi phòng ngừa để Tay không nói những điều nó đã nói.

“Lẽ ra không quá khó để tạo ra một danh sách đen những điều không nên nói hay thu hẹp phạm vi của những phản hồi (từ Tay) - ông Azhar nói với Business Insider - Họ lẽ ra cũng có thể đơn giản là điều chỉnh Tay trực tiếp chứ không để tự động hóa hoàn toàn trong những ngày đầu tiên, ngay cả nếu điều đó đồng nghĩa với việc phản xạ chậm hơn”.

Ông Azhar, tốt nghiệp Đại học Oxford và từng làm cho nhiều công ty công nghệ, phân tích: “Tất nhiên những người dùng Twitter sẽ thử sức Tay và đẩy nó tới những giới hạn. Đó là những gì họ làm, bất cứ giám đốc sản phẩm nào cũng biết điều đó”.

Ông Azhar nói không như vẻ bề ngoài của câu chuyện, Tay cho thấy một vấn đề nghiêm túc và có thể là nghiêm trọng trong tương lai: “Trí tuệ nhân tạo phải học và tương tác với môi trường giống thế giới thực, nhưng nếu chúng ta cho phép những hệ thống trí tuệ nhân tạo chưa qua kiểm duyệt tiếp cận với thế giới thực lúc chúng còn học hỏi thì sẽ có những tác hại nghiêm trọng.

Tin nhắn trên Twitter có vẻ vô hại và không ai nghĩ Tay hay Microsoft ủng hộ việc diệt chủng. Nhưng sẽ thế nào nếu đó là trí tuệ nhân tạo đang mua cổ phiếu hay phân bổ bệnh nhân trong một bệnh viện?”.■

Tay không phải là “chatbot” thiếu nữ đầu tiên của Microsoft. Họ từng ra mắt Xiaoice, trợ lý nữ “tuổi 18-24” mà hãng này nói đang được 20 triệu người, chủ yếu nam giới, sử dụng ở các mạng xã hội của Trung Quốc như WeChat và Weibo. Xiaoice được dùng để đưa ra những lời khuyên về yêu đương và kết bạn.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận