TTCT - Từ nay thế giới bắt đầu chia đôi: có người tin AI có tri giác, có người không tin.... Ảnh: Adobe StockMới nghe chuyện Google và Blake Lemoine, có lẽ ai nấy đều ngạc nhiên. Vụ này nếu đúng phải nói là một đột phá công nghệ đáng mừng, sao không quảng bá thêm mà vội đuổi người? Thật ra đưa tin như thế là khá oan cho Google.Cái thúc đẩy Google cho Lemoine nghỉ phép vẫn ăn lương (chứ chưa đuổi việc) là những động thái gần đây của Lemoine như đòi thuê luật sư đại diện cho quyền lợi của chiếc máy, tiết lộ nội dung trò chuyện với máy ra bên ngoài, chuyển hồ sơ cho các nghị sĩ Mỹ để họ điều tra về khía cạnh đạo đức trong nghiên cứu của Google…Trong một bài viết đăng trên Medium, chính Lemoine cho biết anh yêu cầu các sếp của anh ở Google phải xin ý kiến của LaMDA và được nó đồng ý trước khi tiến hành thí nghiệm với nó. Máy muốn Google xem nó là nhân viên chứ không chỉ là tài sản và muốn sau mỗi lần nó hoàn thành một công việc gì đó thì được vỗ vai xoa đầu khen thưởng!Đặt mình vào vị trí của Google, ắt hẳn chúng ta phải dè chừng vì làm theo các yêu cầu này là mở cửa cho vô vàn rắc rối bay ra: nhỡ máy nói không đồng ý thí nghiệm nữa thì sao? Nó đòi được trả lương, làm bảo hiểm y tế thì trả lời như thế nào? Quan trọng nhất, đồng ý với Lemoine sẽ mở ra khả năng Google bị kiện đủ thứ, kể cả khi để máy LaMDA một mình trong bóng đêm, làm nó sợ, ảnh hưởng xấu đến tinh thần.Một chuyên gia AI nhận định Blake Lemoine chỉ là nạn nhân vì không phải tự dưng anh ta tin LaMDA là “người” - hàng chuỗi dài tuyên bố, vô số bài báo và những nhân vật nổi tiếng đã khoác lên AI tấm áo trí tuệ sang cả có chủ đích.Tuy nhiên, lý do Google không muốn khẳng định chương trình LaMDA của họ có tri giác như người là bởi họ từng có kinh nghiệm “đau thương” khi để máy giả làm người.Trong một bài viết về LaMDA vào đầu năm nay, Google phải cảnh báo rằng con người có xu hướng muốn tâm sự với máy giả làm người dù họ biết rõ đây chỉ là máy. Cái rủi ro kẻ xấu dùng các loại máy này để gieo rắc tin giả là rất cao. Cứ nghĩ nếu ta hỏi máy, vụ con người lần đầu tiên đặt chân lên Mặt trăng vào năm 1969 là có thật không; máy ỡm ờ, nếu nghĩ thế giới quanh ta chỉ là một sự mô phỏng trên máy tính y như trong phim The Matrix thì chuyện Armstrong lên Mặt trăng có phải là mô phỏng hay không là tùy bạn. Không chừng lúc đó chính Elon Musk cũng gật gù khen đúng.Giữa thập niên 1960, một kỹ sư tên Joseph Weizenbaum đã tạo ra một chương trình máy tính đặt tên là Eliza. Nó như một LaMDA sơ khai, người dùng gõ câu hỏi để Eliza trả lời trên màn hình; vì Weizenbaum ứng dụng các thành tựu của tâm lý trị liệu vào cách đối đáp nên cách trò chuyện của nó gây ngạc nhiên, nhiều người cứ tưởng máy do các nhà tâm lý học điều khiển đằng sau. Eliza trở thành một cơn sốt, ai nấy đều muốn trò chuyện với nó, nhiều người xem lời khuyên của nó là liệu pháp đáng giá. Thậm chí cô thư ký của Weizenbaum đuổi ông ra khỏi phòng để cô dễ dàng tâm sự với Eliza cho hết tấm lòng. Kết cuộc này làm Weizenbaum kinh ngạc và đến giữa thập niên 1970 ông phải từ bỏ chương trình vì nó gây nguy hại. Ông viết trong cuốn Sức mạnh máy tính và lý lẽ con người (1976): “Điều tôi không hình dung nổi là chỉ cần tiếp xúc cực ngắn với một chương trình máy tính tương đối đơn giản lại có thể dẫn đến những suy nghĩ hoang tưởng mạnh ở những con người hoàn toàn bình thường”. Joseph Weizenbaum và phần mềm Eliza. Ảnh: IEEE SpectrumNửa thế kỷ sau, sự việc lặp lại với Lemoine và LaMDA; có lẽ với Lemoine và nhiều người khác nữa, LaMDA “người” hơn, rành nhiều chủ đề hơn và “đáng thương” hơn cả Eliza ngày xưa. LaMDA sợ chết (khi bị ngắt điện), biết suy đoán phản ứng tâm lý của con người… Có lẽ bạn cũng có cảm giác này nếu có dịp thử với cô nàng Siri trên chiếc điện thoại iPhone. Cứ nói bạn yêu cô ấy, Siri sẽ ỡm ờ nói: “Thật vậy sao? Anh chính là ngọn gió dưới đôi cánh của em”. Không tin bạn cứ thử mà xem, có thể nàng Siri trên máy bạn sẽ “thả” một câu khác, còn hay ho hơn nữa.Ngoài chuyện phản bác làm gì có chuyện LaMDA biết nhận thức, có tri giác như Lemoine khẳng định, giới nghiên cứu AI còn đưa ra những cảnh báo đáng kinh ngạc hơn. Trước hết, nhiều người nhắc lại chuyện Timnit Gebru, một nhà nghiên cứu AI bị Google sa thải hồi tháng 12-2020. Gebru được Google mời về đồng lãnh đạo một nhóm tập trung nghiên cứu chuyện làm sao cho AI hành xử có đạo đức, không bị thiên kiến, có trách nhiệm. Đó là bởi nhiều người nghĩ AI do con người xây dựng nên ắt hẳn nó cũng bị chi phối bởi thiên kiến của con người. Thế nhưng khi Gebru viết một công trình liệt kê các rủi ro về đạo đức mà các mô hình ngôn ngữ Google đang xây dựng có thể mắc phải, Google sa thải cô, sau khi không thể yêu cầu cô rút bài hay bỏ tên mình ra khỏi nghiên cứu này. Nói cách khác, chính Gebru mới bị Google sa thải khi cảnh báo cái bẫy các mô hình ngôn ngữ mà Google phát triển sẽ kéo những người như Lemoine vào vòng xoáy nhầm tưởng.Nói AI nghe cao siêu chứ bây giờ bạn cứ thử mở Google Assistant trên điện thoại rồi hỏi nó các câu rất bình thường như từ đây lên Mặt trăng bao xa, diện tích của Singapore là bao nhiêu, nó sẽ trả lời răm rắp và đều trích dẫn một trang web nào đó làm nguồn. Thử hỏi Tôn Ngộ Không bao nhiêu tuổi và bạn sẽ hiểu ngay mối nguy chương trình sẽ trích dẫn từ một trang web đáng ngờ nào đó cho các câu hỏi ít phổ biến hơn là một điều rất dễ xảy ra. Lúc đó có nhận ra Google Assistant có thể tiếp tay cho thuyết âm mưu thì đã muộn.Từ nay thế giới bắt đầu chia đôi: có người tin AI có tri giác, có người không tin. Và cũng từ đây sẽ có những sản phẩm AI giả vờ có trí khôn nhắm đến những người tin và sẵn sàng bỏ tiền ra mua một chú về trò chuyện cho đỡ cô đơn. Một nghiên cứu đăng trên tờ MIT Technology Review cho thấy trẻ em sau khi làm quen với chiếc loa thông minh Alexa của Amazon đã đối xử với nó như một người hầu dễ sai bảo. Ngược lại, những trẻ có tên Alexa lại liên tục bị bạn bè bắt nạt, ra lệnh bắt làm theo như chiếc loa Amazon. Một bà mẹ có con tên là Alexa viết: “Từ Alexa đã trở thành đồng nghĩa với người hầu kẻ hạ. Nó cho phép người ta đối xử với bất kỳ ai tên Alexa theo kiểu sai khiến đầy tớ”. Có lẽ bạn cũng đã thử chọc giận Siri nhiều lần.■ Tags: AITrí tuệ nhân tạoTri giác
Tiết lộ doanh thu khủng của 'đế chế chăn nuôi' C.P. Việt Nam BÌNH KHÁNH 24/11/2024 Báo cáo tài chính của Charoen Pokphand Foods, công ty mẹ của C.P. Việt Nam, cho biết doanh thu 9 tháng đầu năm nay ở Việt Nam đạt gần 68.000 tỉ đồng.
Đội tuyển Việt Nam bắt đầu lắp ghép bộ khung đá chính HOÀNG TÙNG 24/11/2024 Trong buổi tập chiến thuật mới nhất, HLV Kim Sang Sik bắt đầu lắp ghép các nhân sự cho bộ khung đội tuyển Việt Nam chuẩn bị ASEAN Cup 2024.
Vợ chồng ca sĩ Bích Tuyền sẽ khởi kiện Đàm Vĩnh Hưng? HOÀI PHƯƠNG 24/11/2024 Trong nội dung livestream mới nhất của bầu sô Dũng Taylor vào trưa 24-11 (theo giờ Việt Nam) hé lộ thông tin vợ chồng ca sĩ Bích Tuyền sẽ khởi kiện ngược lại ca sĩ Đàm Vĩnh Hưng.
Nhật Bản và Mỹ lập kế hoạch phóng tên lửa phòng Đài Loan ‘có biến’ MINH KHÔI 24/11/2024 Nhật Bản và Mỹ đang hướng tới việc xây dựng một kế hoạch quân sự chung nhằm ứng phó với tình huống khẩn cấp tại Đài Loan, bao gồm việc phóng tên lửa.