Nhân loại có cần "Hiệp ước không phổ biến vũ khí AI"?

TỊNH ANH 16/11/2023 06:00 GMT+7

TTCT - AI có thể thành một thứ vũ khí hạt nhân mới không? Một "IAEA cho AI" và một "Hiệp ước không phổ biến vũ khí AI" tương tự Hiệp ước không phổ biến vũ khí hạt nhân 1968, nếu có, sẽ như thế nào?

Nhân loại có cần "hiệp ước không phổ biến vũ khí AI"? - Ảnh 1.

Hội nghị thượng đỉnh ở Bletchley đã thoáng đề cập, nhưng chưa đưa ra kết luận về một chủ đề được bàn tới gần đây trong giới công nghệ: liệu AI sẽ trở thành một thứ nguy hiểm như vũ khí hạt nhân, và thế giới có cần thành lập một tổ chức như Cơ quan Năng lượng nguyên tử quốc tế (IAEA) để giám sát hay không?

Trong ngày thứ hai của sự kiện, đại diện chủ nhà, Thủ tướng Anh Rishi Sunak cảnh báo AI có thể đe dọa nhân loại "ở tầm mức một đại dịch hay chiến tranh hạt nhân". Đây không phải lần đầu có so sánh như thế.

Trong một tuyên bố chung hồi tháng 5, những tên tuổi lớn trong ngành nghiên cứu AI nhận định: "Chúng ta rồi sẽ cần một cái gì đó giống như IAEA dành cho những nỗ lực phát triển siêu AI: mọi cố gắng [đưa AI] vượt quá một ngưỡng nhất định về khả năng (hoặc tài nguyên như năng lực điện toán) sẽ cần phải được một cơ quan quốc tế có thẩm quyền giám sát, thanh tra và kiểm tra việc tuân thủ các tiêu chuẩn an toàn, cũng như đặt ra giới hạn về quy mô sử dụng và mức độ an ninh".

Nhưng AI có thể thành một thứ vũ khí hạt nhân mới không? Một "IAEA cho AI" và một "hiệp ước không phổ biến vũ khí AI" tương tự Hiệp ước không phổ biến vũ khí hạt nhân 1968, nếu có, sẽ như thế nào?

Giống và khác

Trong một bài viết hồi cuối tháng 6, cây bút Dylan Matthews của Vox chỉ ra các điểm tương đồng và khác nhau giữa AI và công nghệ hạt nhân, để xem việc so sánh hai thứ với nhau có khập khiễng hay không.

Về điểm giống nhau, cả hai đều là thành quả của sự phát triển vũ bão của khoa học công nghệ; đều có khả năng gây hại quy mô lớn; đều phụ thuộc vào một "nguyên liệu" quan trọng - uranium với phát triển hạt nhân và chip với AI; và cùng là động lực để các cường quốc chạy đua vũ trang.

Vụ thử hạt nhân Trinity ngày 16-7-1945 ở Mỹ đã hiện thực hóa một lý thuyết (phản ứng phân hạch) chỉ mới hình thành trước đó chưa đầy 7 năm. Tương tự, Transformer - mô hình xử lý ngôn ngữ tự nhiên sau này trở thành nền tảng để phát triển các mô hình ngôn ngữ lớn như GPT hay Claude - chỉ mới được công bố cách đây 6 năm.

Một điểm khác nhau nổi bật giữa vũ khí hạt nhân và AI, theo Matthews: một bên là công nghệ quân sự, một bên là công nghệ cho mục đích chung. Quân sự hóa AI là một thực tế đang diễn ra, nhưng công nghệ này về cơ bản sẽ phục vụ quần chúng nhiều hơn; giống như điện hay Internet, nó khiến cuộc sống dễ dàng hơn, và vì thế không cần phải cấm cửa triệt để. 

Cấm công nghệ phân hạch có thể là ý kiến tồi - điện hạt nhân cũng là một công nghệ hữu ích - nhưng nhân loại còn có nhiều nguồn năng lượng khác. Trái lại, cấm AI tiên tiến rõ ràng không khả thi, nếu xét tới những ứng dụng hữu ích của nó, ngay cả với những mối đe dọa lớn mà nó đặt ra" - Matthews viết.

AI và hạt nhân, trong con mắt AI.

AI và hạt nhân, trong con mắt AI.

Tác giả kết luận: so sánh AI với vũ khí hạt nhân có thể là vô ích - một bên có cả một lịch sử để tham khảo, một bên chưa rõ tương lai thế nào. Nhưng sẽ có ý nghĩa hơn nếu tập trung vào một vài điểm giống nhau, nhất là chuyện cả hai đều là động lực để các nước chạy đua vũ trang - với hạt nhân là Mỹ và Liên Xô những năm 1940, và với AI là Mỹ và Trung Quốc hiện nay. 

Chỉ riêng chuyện này, việc có một tổ chức quốc tế giám sát như IAEA là hợp lý. "Cách tốt nhất để xử lý một công nghệ mới, mạnh mẽ và nguy hiểm là thông qua hợp tác quốc tế rộng rãi. Cách tiếp cận đúng đắn không phải là nằm yên và để các nhà khoa học và kỹ sư biến đổi thế giới của chúng ta mà không cần sự can thiệp từ bên ngoài" - anh viết.

Hình dung một giải pháp

Năm 1952, 11 quốc gia ký hiệp định thành lập Tổ chức Nghiên cứu hạt nhân châu Âu (CERN), với nhiệm vụ "hợp tác trong nghiên cứu khoa học [hạt nhân] với tính chất thuần túy cơ bản", nghĩa là vì lợi ích công cộng. 

5 năm sau, IAEA được thành lập để giám sát các kho dự trữ uranium toàn cầu và hạn chế phổ biến vũ khí hạt nhân. CERN và IAEA, cùng một số tổ chức khác, đã giúp chúng ta tránh được một thảm họa hạt nhân trong 70 năm qua.

Nếu nhân loại đang cần một CERN hay IAEA cho AI, mà đúng hơn là AGI (trí tuệ tổng hợp nhân tạo, AI cao cấp với khả năng nhận thức như của con người) thì các cơ quan đó sẽ thế nào? 

Đã có những hình dung, đề xuất cụ thể, chẳng hạn như mô hình MAGIC (Multilateral AGI Consortium, tập đoàn đa phương về AGI) mà Andrea Miotti - giám đốc quản trị và chiến lược của Conjecture, một công ty start-up chuyên về an toàn AI có trụ sở ở London - đề xuất trong một bài viết cho Time hồi tháng 9.

Miotti cho rằng MAGIC sẽ là "cơ sở duy nhất trên thế giới đặt an toàn làm ưu tiên hàng đầu trong nghiên cứu và phát triển AI tiên tiến". Cũng như CERN, tổ chức này sẽ "lấy việc phát triển AGI khỏi tay các công ty tư nhân và giao nó cho một tổ chức quốc tế có nhiệm vụ phát triển AI an toàn". 

MAGIC sẽ chỉ nhắm vào các nghiên cứu AI có rủi ro cao, chẳng hạn "AI toàn năng" - mọi đột phá trong nghiên cứu dạng này sẽ phải được thẩm định độ an toàn trước khi công bố rộng rãi.

Với cơ chế này, MAGIC sẽ không ảnh hưởng đến đại đa số các công trình nghiên cứu và phát triển AI nói chung. Miotti cũng nhấn mạnh đây là cách làm phổ biến trong các lĩnh vực khác, chẳng hạn nghiên cứu về các mầm bệnh gây chết người bị giới hạn trong các phòng thí nghiệm có mức độ an toàn sinh học rất cao, hay các nghiên cứu về thuốc đều được giám sát bởi các cơ quan quản lý như FDA.

MAGIC cũng có thể đặt ra ngưỡng năng lực điện toán cho nghiên cứu AI, tương tự các chuẩn an toàn về làm giàu uranium của IAEA. "MAGIC có thể đảm bảo an toàn và bảo mật cần thiết cho công nghệ mang tính biến đổi này và phân phối lợi ích cho tất cả các bên ký kết. CERN là tiền lệ cho thấy chúng ta có thể thành công với MAGIC" - tác giả kết luận.

Đại biểu các nước tại hội nghị. Ảnh: Reuters

Đại biểu các nước tại hội nghị. Ảnh: Reuters

Một cách làm khác, theo phân tích của Elias Groll, biên tập viên cao cấp trang tin an ninh mạng CyberScoop, là đánh vào 3 chân kiềng của AI, hay còn gọi là "tam giác AI" (AI Triad): dữ liệu, thuật toán và năng lực điện toán. Trong khi phần dữ liệu và thuật toán hầu như không thể can thiệp, chân kiềng còn lại, cụ thể là các chip xử lý đồ họa (GPU) siêu mạnh, dễ kiểm soát hơn.

"Vì các mô hình AI hàng đầu phụ thuộc vào GPU cao cấp - ít nhất là ở thời điểm hiện tại - có thể ứng dụng khái niệm kiểm soát vũ trang như với vũ khí hạt nhân để hạn chế sự phổ biến của các mô hình mạnh nhất" - tác giả lập luận. 

Điều này càng dễ dàng hơn khi chỉ có một cái tên gần như độc tôn trong thị trường này - hãng chip Nvidia của Mỹ, một công ty vừa gia nhập câu lạc bộ vốn hóa ngàn tỉ USD nhờ nhu cầu phát triển AI bùng nổ. Cách làm này đã được thử nghiệm trong thực tế: hồi tháng 10, Mỹ cấm xuất khẩu các mẫu GPU tối tân và thiết bị làm chip tiên tiến sang Trung Quốc.

Tương lai để ngỏ

Năm xưa, cộng đồng quốc tế đã phải khẩn trương hành động vì một "động lực" rõ mồn một và thảm khốc - hai quả bom ném vào Hiroshima và Nagasaki. Ngược lại, những rủi ro mang tính hủy diệt do AI gây ra hiện chỉ mang tính lý thuyết, đa phần bắt nguồn từ khoa học viễn tưởng, nên cộng đồng quốc tế chưa đủ động lực để mau chóng xây dựng một thỏa thuận kiểu "không phổ biến vũ khí AI quốc tế".

Helen Toner, chuyên gia chính sách AI thuộc trung tâm an ninh và công nghệ mới Đại học Georgetown, cho rằng những thảo luận về việc kiểm soát AI gặp trở ngại là chúng có vẻ đi trước thời đại. Nếu 10 hoặc 20 năm nữa, khi các công ty công nghệ đã đưa AI đến mức đe dọa nền văn minh nhân loại, hẳn thế giới sẽ nhiều ý chí và sự đồng thuận chính trị hơn về việc kiểm soát nó.

Lịch sử cho thấy các hiệp ước và công ước quốc tế thường là sản phẩm của bi kịch và thảm họa, và vì vậy những người ủng hộ việc kiểm soát AI đang phải đối mặt với câu hỏi: liệu có phải đợi tới lúc đó không? Trước mắt, các chính phủ đã có câu trả lời: trong khi chờ đợi một thảm họa không biết có xảy ra hay không, tốt hơn là tập trung vào những mối đe dọa gần hơn, như đã thể hiện rõ ở hội nghị Bletchley.

Ảnh: Shutterstock

Ảnh: Shutterstock

Cây gậy và củ cà rốt

Với nhiều người, IAEA là một tổ chức có nhiệm vụ chủ yếu cử các thanh sát viên đi khắp thế giới để đảm bảo các chương trình năng lượng hạt nhân vì mục đích hòa bình không chuyển hướng sang chế tạo bom hạt nhân. Công việc ít được biết đến hơn của cơ quan này, theo bài viết trên CyberScoop, là tạo điều kiện thuận lợi cho việc chuyển giao khoa học hạt nhân.

Việc "đổi chác" với các quốc gia về cơ bản là thế này: cứ ký Hiệp ước không phổ biến vũ khí hạt nhân và cam kết không chế tạo bom đi, và IAEA sẽ giúp quý vị thu lợi ích từ chương trình hạt nhân vì mục đích hòa bình. Chính "củ cà rốt" này là động lực khiến hầu hết các quốc gia đều hào hứng với IAEA. "Họ [ký hiệp ước] để được hỗ trợ mọi thứ, từ xạ trị đến xây dựng nhà máy điện hạt nhân" - Carl Robichaud, lãnh đạo chương trình chính sách vũ khí hạt nhân tại Tổ chức Longview Philanthropy (London), nhận xét.

Một chế độ kiểm soát AI, vì thế, cũng cần một "củ cà rốt" để khuyến khích các nước tham gia. Paul Scharre, giám đốc nghiên cứu tổ chức học giả Center for a New American Security, nêu một hướng khả dĩ: các quốc gia sẽ được tiếp cận với các con chip cao cấp hay giấy phép sử dụng các trung tâm dữ liệu, nếu họ cam kết chỉ dùng chúng để phát triển mô hình AI "cho mục đích hòa bình". "Nếu quý vị muốn truy cập mô hình AI để phục vụ khám phá khoa học, có ngay; chỉ cần không dùng nó để chế tạo vũ khí sinh học" - Scharre nói.

Trên thực tế, cách làm này hoàn toàn khả thi. Ngoài việc kiểm soát chip - như các lệnh cấm xuất khẩu của Mỹ, nhiều phòng nghiên cứu AI trong những năm gần đây đã từ bỏ mô hình mã nguồn mở, vốn là đặc điểm nổi bật của ngành. Ngày nay, các mô hình AI tiên tiến nhất chỉ có thể truy cập thông qua các ứng dụng hoặc API, cho phép chủ sở hữu kiểm soát ai là người được tiếp cận.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận