AI chỉ đâu, bom rơi ở đó

HOA KIM 23/05/2024 06:32 GMT+7

TTCT - Ứng dụng trí tuệ nhân tạo (AI) được kỳ vọng giúp giảm thương vong không cần thiết trong chiến tranh, nhưng thực tế đang cho thấy điều ngược lại.

Ảnh cắt từ video của VOX

Ảnh cắt từ video của VOX

Israel đã dùng AI để xác định các mục tiêu tấn công ở Dải Gaza trong cuộc giao tranh đang diễn ra với lực lượng Hamas, trong khi vai trò của con người trong việc đưa ra quyết định cuối cùng là nhỏ đến mức đáng báo động, theo kết quả một bài điều tra được tạp chí +972 Magazine (Israel) công bố tháng 4 vừa qua.

Tính đến ngày 7-5 đã có ít nhất 34.000 người Palestine thiệt mạng trong cuộc xung đột bắt đầu từ tháng 10-2023. Con số này quá cao nếu so với hơn 1.400 người Palestine thiệt mạng trong cuộc xung đột năm 2014 giữa hai bên. Điều làm nên sự khác biệt lớn này, theo trang Vox, chính là sự góp mặt của AI.

Từ giám sát đến tìm diệt

Việc Israel vận dụng AI vào chiến tranh đã được biết đến trong nhiều năm, mà tiêu biểu nhất là hệ thống phòng thủ tiên tiến Vòm sắt (Iron Dome) với khả năng đánh chặn tự động đạn pháo cũng như rocket tầm ngắn nhắm vào các khu vực đông dân cư. Nhưng trong cuộc chiến lần này, AI đang được triển khai theo cách khác, thiên về tấn công hơn là phòng thủ: tự động hóa việc xác định các mục tiêu ném bom.

Theo điều tra của +972 Magazine, có 3 hệ thống AI phối hợp cùng nhau trong quá trình này: "Gospel" đánh dấu các tòa nhà mà nó cho rằng lực lượng Hamas đang sử dụng, "Lavender" được đào tạo bằng dữ liệu về các tay súng đã biết để "cào" dữ liệu giám sát ở Dải Gaza - từ hình ảnh camera an ninh cho đến danh bạ điện thoại - và đánh giá khả năng từng người có thể là thành viên Hamas hay không, cuối cùng "Where's Daddy?" lần theo dấu các mục tiêu để thông báo cho quân đội Israel khi đối tượng về đến nhà riêng - thời điểm tốt nhất để ra lệnh ném bom tiêu diệt.

Lavender đóng vai trò trung tâm trong chiến dịch đánh bom chưa từng có nhắm vào người Palestine
972 Magazine

Theo tạp chí +972 Magazine, khoảng 37.000 người Palestine đã được các hệ thống AI này đánh dấu là mục tiêu cần tiêu diệt, trong đó hàng nghìn phụ nữ và trẻ em đã chết như "thiệt hại ngoài dự kiến" bởi các quyết định do AI đưa ra.

Mặc dù về danh nghĩa vẫn có chốt chặn cuối cùng là con người để phê duyệt hoặc từ chối khuyến nghị của AI, các binh sĩ Israel được +972 Magazine phỏng vấn nói rằng về cơ bản họ xem kết quả mà AI đưa ra "như thể đó là một quyết định của con người". Đôi khi, họ chỉ dành ra "20 giây" để đánh giá mục tiêu do AI đề xuất trước khi quyết định ném bom (thường là để xác nhận mục tiêu là nam giới).

Ban lãnh đạo quân đội Israel cũng bắt đầu khuyến khích binh lính mặc định phê duyệt danh sách tiêu diệt của Lavender chỉ vài tuần kể từ khi giao tranh bắt đầu. Đáng nói hơn, thực tế này diễn ra ngay cả khi quân đội Israel biết rõ hệ thống AI của họ có thể mắc lỗi "trong khoảng 10% trường hợp", theo +972 Magazine.

Quân đội Israel phủ nhận việc sử dụng AI trong lựa chọn các mục tiêu là con người, nói rằng họ chỉ duy trì "một cơ sở dữ liệu với mục đích tham khảo chéo các nguồn tin tình báo", theo trang Vox.

Tuy nhiên, Tổng thư ký Liên Hiệp Quốc (LHQ) Antonio Guterres cho biết bài điều tra khiến ông "vô cùng quan ngại", còn người phát ngôn an ninh quốc gia của Nhà Trắng John Kirby cũng cho biết Mỹ đang xem xét các thông tin được nêu trong báo cáo trên.

AI phủ bóng chiến trường

Israel chắc chắn không phải quốc gia duy nhất đem năng lực AI vào trong quân đội. Trong bối cảnh một chiến sự khác đang diễn ra giữa Nga và Ukraine, một trong những vũ khí nguy hiểm nhất của Nga là các máy bay không người lái cảm tử Lancet-3.

Với thiết kế nhỏ gọn linh hoạt và giá thành chỉ khoảng 35.000 USD/chiếc, dòng Lancet có thể tìm và tấn công mục tiêu là xe tăng và xe thiết giáp trị giá hàng triệu USD nhờ vào AI được trang bị bên trong, theo tạp chí The Atlantic.

Công nghệ AI phát hiện mục tiêu cho phép máy bay Lancet tự động phân loại hình dạng của các phương tiện và những thứ tương tự mà nó bắt gặp trên đường bay. Sau khi AI phát hiện một hình dạng đặc trưng của hệ thống vũ khí Ukraine (ví dụ như mẫu xe tăng chiến đấu Leopard đặc biệt do Đức sản xuất), máy tính của máy bay không người lái này có thể ra lệnh cho Lancet tấn công vật thể đó, thậm chí tự điều chỉnh góc tấn công để gây thiệt hại lớn nhất có thể.

Ukraine cũng không chịu kém cạnh khi Thứ trưởng Quốc phòng Ivan Gavrylyuk gần đây tiết lộ trong cuộc gặp với phái đoàn Pháp rằng nước này đang nỗ lực tích hợp AI vào pháo tự hành Caesar do Pháp chế tạo. Theo Gavrylyuk, AI này sẽ tăng tốc quá trình xác định mục tiêu và sau đó quyết định loại đạn tốt nhất để sử dụng chống lại chúng.

Thời gian tiết kiệm được có thể là sự khác biệt giữa sự sống và cái chết nếu người điều khiển pháo binh Ukraine xác định được một khẩu đội Nga nhanh hơn người Nga có thể phát hiện ra họ, theo The Atlantic. Gavrylyuk ước tính AI còn có thể giúp tiết kiệm 30% lượng đạn dược được sử dụng - tin vui cho quốc gia đang trông cậy rất nhiều vào viện trợ vũ khí từ các nước đồng minh.

Ảnh: icrc.org

Ảnh: icrc.org

Tất nhiên ông lớn quân sự như Mỹ không thể đứng ngoài cuộc chơi. Trong hai năm qua, Bộ Quốc phòng Mỹ đã thảo luận cởi mở về một trong những sáng kiến đầy tham vọng liên quan đến AI - dự án Replicator. Theo giải thích của Thứ trưởng Quốc phòng Mỹ Kathleen Hicks tại một cuộc họp báo vào tháng 9-2023, Replicator là một nỗ lực sử dụng thiết bị tự dẫn đường để "giúp vượt qua lợi thế về số lượng của Trung Quốc".

Hicks vẽ ra bức tranh về một số lượng lớn các phương tiện tự hành và máy bay không người lái đồng hành cùng binh lính Mỹ trong chiến đấu, đảm nhận nhiều vai trò mà trước đây thuộc về con người như trinh sát, bảo vệ lực lượng tác chiến hay vận chuyển vật tư. Mỹ đến nay đã dành ra 1 tỉ USD cho dự án Replicator và Hicks kỳ vọng nó sẽ sẵn sàng dưới một hình thức nào đó trong vòng hai năm.

Con người chỉ còn là "thủ tục"

Trong khi những người ủng hộ AI cho rằng công nghệ chỉ là một công cụ trung lập, thậm chí nhận định AI sẽ khiến chiến tranh trở nên "nhân đạo" hơn bằng cách giúp xác định mục tiêu chính xác và hạn chế thương vong không cần thiết, ứng dụng thực tế của AI trên chiến trường đang cho thấy điều hoàn toàn ngược lại.

"Những vũ khí này rất thường xuyên được sử dụng không theo cách chính xác như vậy. Động cơ là sử dụng các hệ thống này trên quy mô lớn và theo những cách làm gia tăng bạo lực hơn là thu hẹp bạo lực" - Vox dẫn lời Elke Schwarz, nhà lý luận chính trị tại Đại học Queen Mary of London (Anh) và là người nghiên cứu về đạo đức của AI trong lĩnh vực quân sự.

"Điểm hấp dẫn của các hệ thống AI này là chúng hoạt động rất nhanh và ở quy mô rộng lớn, gợi ý rất nhiều mục tiêu trong một khoảng thời gian ngắn. Vì vậy, con người gần như trở thành một cỗ máy tự động nhấn nút phê duyệt và nghĩ: OK, tôi đoán là không có vấn đề gì" - Schwarz nói với Vox.

AI chỉ đâu, bom rơi ở đó- Ảnh 3.

Một trong những nguyên nhân chính của thái độ này là với khối lượng dữ liệu đầu vào khổng lồ của AI, con người đơn giản không còn lựa chọn nào khác ngoài tin tưởng vào lựa chọn của máy tính. 

"Trước hết, chúng ta không biết những dữ liệu gì được thu thập và chúng được áp dụng vào mô hình AI như thế nào... Con người có xu hướng trao thẩm quyền cho máy móc vì chúng ta mặc định rằng chúng tốt hơn, nhanh hơn và có năng lực nhận thức vượt trội hơn so với mình" - Schwarz giải thích.

Nói cách khác, khi mọi số liệu và biểu đồ được dọn sẵn bởi AI trên màn hình chỉ huy, mức độ nhạy cảm với tình hình trên chiến trường của người ra quyết định cuối cùng trở nên rất hạn chế.

Một yếu tố khác là tốc độ: các hệ thống AI đơn giản là nhanh đến mức con người không có đủ năng lực trí óc để không coi những gì chúng "đề xuất" là lời kêu gọi hành động. Schwarz ví điều này với thiết kế của điện thoại thông minh: khi dòng thông báo tin nhắn hiện lên trên màn hình, bản năng của chúng ta là nhấn vào để xem, chứ không phải phớt lờ nó.

"Và thực tế là nếu đối diện một lựa chọn chỉ một trong hai - giết hay không giết - và bạn đang ở trong tình huống khẩn cấp, bạn có nhiều khả năng chọn hành động và khai hỏa hơn" - Schwarz nói.

Vũ khí AI: cấm được không?

Tháng 12-2023, LHQ thông qua nghị quyết thêm chủ đề về vũ khí sát thương tự động (lethal autonomous weapon - LAW) vào chương trình làm việc của phiên họp Đại hội đồng LHQ vào tháng 9 tới. 

Tổng thư ký LHQ Guterres bày tỏ mong muốn đến năm 2026 cơ quan này sẽ đưa ra được một lệnh cấm các loại vũ khí hoạt động mà không có sự giám sát của con người, theo tạp chí khoa học Nature.

Bonnie Docherty, một luật sư về quyền con người tại Trường luật Harvard ở Cambridge, Massachusetts, cho rằng chỉ riêng việc chủ đề này được đưa vào chương trình nghị sự của LHQ đã mang ý nghĩa lớn, nhất là sau một thập niên không có nhiều tiến triển. 

"Ngoại giao thường đi chậm nhưng đó là một bước quan trọng" - Docherty nói với Nature. Các chuyên gia cho rằng động thái này vạch ra lộ trình thực tế đầu tiên để các quốc gia hành động về vũ khí AI.

Nhưng nói thì dễ hơn làm. Công ước LHQ về vũ khí thông thường (CCW) đã tiến hành điều tra chính thức về các loại vũ khí được AI bổ trợ từ năm 2013 nhưng không có nhiều tiến triển bởi cần có sự đồng thuận quốc tế để có thể thông qua bất cứ quy định nào, trong khi các quốc gia đang chủ động phát triển vũ khí AI thì sẵn sàng phản đối bất kỳ lệnh cấm nào.

AI chỉ đâu, bom rơi ở đó- Ảnh 4.

Tháng 3 năm nay, Mỹ chủ trì một phiên họp toàn thể LHQ để ra "tuyên bố chính trị" về sử dụng trí tuệ nhân tạo và tự động hóa có trách nhiệm trong quân sự, một nỗ lực mang tính kêu gọi sự tự nguyện của các nước chứ không có hiệu lực thi hành về mặt pháp lý.

Một phần của vấn đề là bất đồng về định nghĩa thế nào là vũ khí sát thương tự động. Một phân tích năm 2022 đã tìm thấy ít nhất hàng chục định nghĩa khác nhau về hệ thống vũ khí tự động do các quốc gia và tổ chức đề xuất.

Ví dụ, Anh định nghĩa LAW là vũ khí "có khả năng hiểu ý định và phương hướng ở cấp độ cao hơn", trong khi Trung Quốc cho rằng một loại vũ khí được xem là LAW khi nó có thể "tự học, mở rộng chức năng và khả năng của nó theo cách vượt quá mong đợi của con người".

Đức thì xem "sự tự nhận thức" là một thuộc tính cần thiết của vũ khí tự động - một phẩm chất mà hầu hết các nhà nghiên cứu cho rằng còn rất xa so với những gì AI ngày nay có thể làm được, nếu không muốn nói là hoàn toàn viển vông.

"(Định nghĩa như vậy) có nghĩa là vũ khí phải thức dậy vào buổi sáng và quyết định tự mình tấn công Nga" - Nature dẫn lời Stuart Russell, một nhà khoa học máy tính tại Đại học California, Berkeley và là một người vận động chống lại vũ khí AI.

Một vấn đề lớn khác là làm sao thực thi một lệnh cấm vũ khí AI trên thực tế. Trong trường hợp của vũ khí hạt nhân, có một quy trình chặt chẽ được thiết lập để kiểm tra tại hiện trường và kiểm toán vật liệu hạt nhân khiến việc "lén" phát triển loại vũ khí này gần như là không thể. 

Nhưng với AI, tất cả bằng chứng nằm trong những dòng mã lệnh máy tính và có thể dễ dàng bị che giấu hoặc thay đổi nhanh chóng trong trường hợp bị kiểm tra.

"Nó đòi hỏi chúng ta phải nhìn nhận lại về cách ta nghĩ về việc xác minh các hệ thống vũ khí và kiểm soát vũ khí" - Zak Kallenborn, nhà phân tích an ninh tại Trung tâm nghiên cứu chiến lược và quốc tế (CSIS), nói với Nature.

Nghe AI, tội lỗi thuộc về ai?

Điều đáng quan ngại khi những người lính không được cung cấp không gian và thời gian để cân nhắc khía cạnh luân lý của việc tấn công mục tiêu là khả năng biến quân đội thành cỗ máy tự động giết người hoàn toàn vô cảm.

Người ra quyết định có thể nghĩ: "Tôi là một phần của cỗ máy. Các tính toán đạo đức đã diễn ra đâu đó trước tôi bởi một người nào khác, và đó không còn là trách nhiệm của tôi nữa", Schwarz nêu ví dụ.

Liệu việc buộc ai đó phải chịu trách nhiệm về mặt đạo đức cho một tội ác chiến tranh do hệ thống AI khuyến nghị có trở nên khó khăn hơn không? Đó là câu hỏi mà các tòa án chiến tranh sẽ phải phân định trong tương lai.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận