AI: chưa hiểu hết, làm sao kiểm soát?

NGUYỄN VŨ 15/11/2023 06:00 GMT+7

TTCT - Tuyên bố Bletchley được đại diện 28 nước ký sau Hội nghị thượng đỉnh về an toàn AI thừa nhận chưa hiểu hết các năng lực của AI nên khó lòng dự báo các nguy cơ AI đem đến.

Ảnh: Shutterstock

Ảnh: Shutterstock

Khi chính phủ 28 nước, trong đó có những nước đi đầu trong xây dựng và phát triển trí tuệ nhân tạo (AI) như Mỹ hay Trung Quốc, lại ngồi với nhau tìm cách kiểm soát AI, câu hỏi bật ra là vì sao, AI có gì đáng sợ đến nỗi phải chế ngự ngay từ khi nó chưa hoàn chỉnh?

Tìm đọc tuyên bố Bletchley được đại diện 28 nước ký như một kết quả cụ thể của Hội nghị thượng đỉnh về an toàn AI (AI Safety Summit 2023) tổ chức tại Anh hồi đầu tháng, chúng ta sẽ dễ bị thất vọng vì nó chỉ liệt kê chung chung những rủi ro mà các hệ thống AI có thể gây ra.

Tuyên bố thừa nhận chưa hiểu hết các năng lực của AI nên khó lòng dự báo các nguy cơ AI đem đến, chỉ biết chúng có thể phát sinh từ việc cố tình sử dụng sai hay không kiểm soát được AI phù hợp với lợi ích của con người.

Công cụ giúp lừa đảo

Hãy thử nhìn lại các ứng dụng AI mà ta đã có thể tiếp cận, như gần đây nhất là việc tải ảnh chân dung lên để AI dựa vào đó làm ra hàng loạt tấm hình gần giống chúng ta nhưng với diện mạo rất ấn tượng. Rõ ràng chúng ta đã góp phần tạo ra hình ảnh sai lệch nhưng không hề áy náy vì cứ nghĩ nó chỉ liên quan đến chúng ta.

Từ ứng dụng này đến các ứng dụng tương tự, đẻ ra hình chúng ta đứng cạnh người nổi tiếng, bắt tay diễn viên điện ảnh, ôm hôn ca sĩ nhạc nhẹ là không khó. Như vậy AI đã trao cả cho những người có ý đồ xấu những công cụ để đi lừa đảo như giả làm người đứng chụp hình với quan chức cao cấp, hay đi tống tiền khi tạo ra ảnh xì căng đan không có thật. Các hệ thống AI hiện nay đã đủ mạnh để tiếp tay cho kẻ xấu như thế, từ tạo video giả đến giúp chúng viết thư đánh lừa người cả tin.

Điều đáng nói, nạn nhân của AI phần đông là những người yếu thế, không đủ công cụ công nghệ trong tay để hóa giải rủi ro do AI gây ra. Đó có thể là một người già bị mất bảo hiểm y tế do thuật toán xếp loại sai; một cặp vợ chồng tan vỡ do ảnh ngoại tình giả hay một người bị tống giam vô cớ do bị phần mềm nhận diện gương mặt gán là tội phạm… Nỗi lo "robot cầm súng" thật ra không hiện thực bằng nỗi lo bị vi phạm bản quyền, bị mất việc hay bị giội bom tin giả.

Trở lại AI Safety Summit, sở dĩ nó được tổ chức tại tòa nhà Bletchley - cách London chừng 80km về phía bắc - là bởi đây là nơi một nhóm các nhà khoa học do Alan Turing dẫn đầu đã làm ra chiếc máy tính đầu tiên, giúp giải mã các bức điện của Đức quốc xã trong Đệ nhị thế chiến. Tổ chức hội nghị ở đây, nước Anh muốn trở thành một trung tâm sáng kiến của thế giới, lần này là giải mã và chế ngự AI.

Tuyên bố Bletchley viết: "Nhiều rủi ro xuất phát từ AI chủ yếu mang tính quốc tế về bản chất nên phải được giải quyết tốt nhất là thông qua hợp tác quốc tế". Tuy nhiên lần này, bản tuyên bố không đưa ra mục tiêu giải pháp cụ thể nào cả. Hội nghị chỉ lên lịch họp tiếp vào 6 tháng nữa tại Hàn Quốc và một năm sau lại gặp nhau tại Pháp.

Nước nào lo nước đó trước

Có lẽ một mô hình khả thi là các nước lần lượt đưa ra các giải pháp của riêng mình, áp dụng thí điểm tại nước mình trước rồi tích hợp vào một nỗ lực kiểm soát chung mang tính toàn cầu. 

Ngay trước hội nghị, Tổng thống Mỹ Joe Biden đã ký một sắc lệnh hành pháp yêu cầu các công ty AI phải đánh giá rủi ro an ninh quốc gia trước khi đưa công nghệ ra cho công chúng. Tại buổi lễ ký, ông Biden nêu mối quan ngại trước khả năng kẻ lừa đảo chỉ cần lấy 3 giây giọng nói của một người rồi nhào nặn đẻ ra nội dung mới. Ông kể có xem một đoạn video giả danh ông nói huyên thuyên và sững sờ bảo: "Tôi nói điều đó bao giờ nhỉ?".

Phát biểu của ông có thể xem như đường hướng chính sách về AI của Mỹ trong thời gian tới: "Một điều đã rõ: để hiện thực hóa tiềm năng của AI và tránh các rủi ro, chúng ta cần quản lý công nghệ này. Không còn con đường nào khác". 

Cụ thể, sắc lệnh hành chính của ông Biden buộc các công ty triển khai các công cụ AI mới nhất phải kiểm nghiệm hệ thống để bảo đảm không ai có thể sử dụng chúng nhằm tạo ra các vũ khí sinh học hay hạt nhân. 

Nó cũng buộc các nhà cung cấp dịch vụ đám mây báo cáo khách hàng nước ngoài cho chính phủ liên bang; đề xuất cần in dấu mờ lên hình ảnh, âm thanh và video để xác nhận chúng là do AI tạo ra. Với ứng dụng tạo ảnh chân dung nói trên, nếu in mờ dòng chữ "Do AI tạo ra" thì ảnh chỉ dùng để khoe bạn bè, đăng Facebook chứ không thể đem đi lừa đảo người khác.

Đại biểu các nước tại hội nghị. Ảnh: Reuters

Đại biểu các nước tại hội nghị. Ảnh: Reuters

Châu Âu đang soạn thảo đạo luật AI, có thể sẽ sớm ban hành trong vài tuần tới, có mục đích bảo vệ người dân khỏi những hiểm họa do AI gây ra như hạn chế tối đa việc sử dụng các chương trình nhận diện gương mặt, yêu cầu các công ty AI như ChatGPT phải tiết lộ nhiều hơn nữa các dữ liệu họ sử dụng để xây dựng chương trình. 

Đạo luật của EU sử dụng cách tiếp cận dựa trên rủi ro, tập trung nhắm đến các ứng dụng AI có tiềm năng gây nguy hại như hệ thống AI điều hành việc cấp nước, cấp điện, trong ngành tư pháp. Những nơi này phải đánh giá rủi ro của ứng dụng AI trước khi đưa vào sử dụng, như cách thức đang áp dụng với dược phẩm.

Trung Quốc cũng đang siết lại cách ứng dụng AI vào cuộc sống. Wu Zhaohui, thứ trưởng Bộ Khoa học và công nghệ, nói tại Bletchley rằng Bắc Kinh muốn "nâng cao đối thoại và giao tiếp" với các nước khác về an toàn AI. 

Ông này cho biết Trung Quốc đang phát triển các sáng kiến của riêng mình nhằm quản lý AI và nhận định công nghệ AI "là không chắc chắn, không thể giải thích và thiếu tính minh bạch".

Riêng nước Anh có cách tiếp cận khác. Họ cho rằng các luật lệ và quy định sẵn có là đủ để quản lý các hệ thống AI hiện nay. Tạm thời Anh thành lập Viện An toàn AI để đánh giá và khảo nghiệm các hệ thống mới. 

Cách tiếp cận này phản ánh lên cách điều hành hội nghị Bletchley, không vội đưa ra phương thức quản lý. Thủ tướng Anh Rishi Sunak nói: "Làm sao chúng ta có thể viết luật có ý nghĩa cho một thứ chúng ta chưa hiểu hết trọn vẹn?".

Bởi thế mục đích của hội nghị lần này, như nói rõ trong tuyên bố Bletchley, là xác định các rủi ro an toàn của AI rồi mới xây dựng các chính sách dựa vào các rủi ro này ở các nước tham gia ký kết. 

Bài học sử dụng AI sai cách của Microsoft

Trang web chính của Microsoft tại địa chỉ MSN.com tổng hợp tin tức từ nhiều nguồn như kiểu baomoi.com hay news.google.com. Đến năm 2018, trang này vẫn tuyển dụng đến 800 biên tập viên nhằm giúp tuyển chọn tin tức dựa vào dòng chảy thời sự để giúp người đọc có bức tranh tổng quát về tình hình địa phương và thế giới.

Thế nhưng những năm gần đây Microsoft sa thải nhiều biên tập viên, ngày càng dựa vào AI để chọn tin - kết quả là một mớ hỗn độn mà hãng đang phải đau đầu giải quyết. Chẳng hạn, mới hồi cuối tháng 10, tờ The Guardian của Anh đã gởi thư phản đối cách Microsoft xử lý một bản tin của báo.

Theo thỏa thuận, Microsoft có trả tiền cho các báo để đăng tin của báo lên trang MSN của mình. The Guardian trước đó có đăng tin về cái chết của một thiếu nữ 21 tuổi với vết thương trên đầu tại một trường học ở Sydney, Úc.

MSN đem tin này về đăng nhưng lại chạy kèm một khảo sát tự động do AI tạo ra. Khảo sát hỏi độc giả, quý vị nghĩ cái chết của cô này là do đâu - tự tử, tai nạn hay bị giết? Bức thư của The Guardian chỉ trích cách Microsoft giao cho AI xử lý tin, yêu cầu họ nhận trách nhiệm cho đăng tải một khảo sát rất phản cảm, làm độc giả bất bình, gây hại cho uy tín tờ báo.

Trước đó, trang MSN từng đăng nhiều tin giả như chuyện Tổng thống Joe Biden ngủ gật trong phút tưởng niệm nạn nhân vụ cháy rừng hay rút tít ẩu như tin Brandon Hunter, một cầu thủ bóng rổ, qua đời năm 42 tuổi được chạy tít: "Brandon Hunter trở nên vô dụng ở tuổi 42". Hệ thống AI của Microsoft nhiều lúc chọn đăng tin của các trang web nhỏ, không ai biết, gián tiếp giúp làm lây lan tin giả, tin theo thuyết âm mưu.

Các lời quảng cáo của Microsoft lúc tung ra "biên tập viên AI" như "các thuật toán đánh trúng mối quan tâm của độc giả" hóa ra là đúng theo hướng họ chọn toàn tin giật gân, câu khách như bản chất tò mò, thích hóng chuyện của con người. Dùng AI như thế là đi theo mặt trái của cuộc sống bởi nền văn minh loài người sinh ra cũng để giám sát bản năng của loài người chứ ai lại thả lỏng như MSN.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận