TTCT - Với việc Không quân Hoàng gia Anh (RAF) và Bộ Quốc phòng Mỹ đầu tư nhiều tiền của phát triển robot phục vụ chiến tranh, các tiêu chuẩn pháp lý và đạo đức vốn được áp dụng trong chiến tranh sẽ được điều chỉnh như thế nào? Phóng to Một robot tự xử lý dạng nhỏ trong tương lai là như thế này Tháng 7-2010, tại sân bay Warton ở Lancashire (Anh), Công ty BAE Systems đã đưa vào thử nghiệm sản phẩm mẫu là một phương tiện bay không người lái (UAV) có thể tự xử lý (tự vận hành, tự quyết định hành động và độc lập tác chiến). Với chi phí phát triển hơn 140 triệu bảng Anh do Bộ Quốc phòng chi tiền, chiếc Taranis trông như từ hành tinh khác đến. Điều đặc biệt với chiếc UAV này là nó có thể hoàn toàn lái tự động, bay sâu vào lãnh thổ đối phương do thám tin tức tình báo, thả bom và tự vệ chống lại những máy bay có người lái hoặc không người lái khác. Bộ trưởng phụ trách mua sắm quốc phòng thời 2005 - 2007 của Anh Lord Drayson cho biết Taranis gần như không cần sự tham gia điều khiển của con người. Máy móc tự quyết định độc lập Chiếc Taranis là ví dụ điển hình về sự thay đổi mạnh mẽ trong hệ thống tự phòng vệ của các nước tiên tiến: máy móc có thể tự quyết định độc lập, không có sự tham dự của con người và có khả năng thay đổi phương thức chiến tranh. Các nước có nền quân sự phát triển như Mỹ và Anh đang xem xét coi cơ chế tự xử lý cho các phương tiện máy móc là cách để xâm nhập sâu hơn, hiệu quả hơn và ít phải mang thi thể người từ các chiến trường về hơn. Báo cáo chính sách an ninh và quốc phòng chiến lược của Chính phủ Anh xuất bản tháng 10-2010 coi robot tự xử lý là cách để “thích nghi với những diễn biến bất ngờ”. Nhưng đằng sau sự hào nhoáng về kỹ thuật, sự tinh vi, tinh xảo và vô cùng tiên tiến của cơ chế tự xử lý cho máy móc là những vấn đề quan trọng liên quan đến đạo đức và pháp lý trên chiến trường. Hiện nay, đối với một số nhiệm vụ quân sự, các robot có vũ trang có thể “tự chăm sóc” bản thân mình. Israel đang triển khai những ụ súng máy dọc biên giới và dải Gaza hoạt động tự động nhằm vào các tay súng Palestine xâm nhập lãnh thổ. Một chỉ huy của Israel cho tạp chí chuyên ngành quân sự Defense News biết với chức năng “thấy là bắn liền” (“See - Shoot” system), một người vận hành sẽ cho phép máy tự bắn ít nhất trong giai đoạn đầu tiên của quá trình triển khai. “See - Shoot” là những hệ thống tự động, nhưng chúng không tự xử lý. Để phân biệt tự động và tự xử lý, lấy ví dụ như bạn phải ấn vào một cái nút nào đó trên máy nước uống vận hành theo cơ chế tự động hóa thì mới có nước chảy ra. Nhưng hệ thống tự xử lý của máy móc hoạt động phức tạp hơn rất nhiều: chúng đưa ra quyết định bằng cách phân tích hàng ngàn dữ liệu đọc được từ hiện trường, xử lý thông qua máy tính để tìm ra giải pháp khả dĩ nhất. Một số người tin rằng đó cũng giống như cách con người đưa ra quyết định. Phóng to Chiếc Reaper UAV không người lái của không quân Hoàng gia Anh - Ảnh: airforcetimes.com Tại Viện nghiên cứu robot ở ĐH Carnegie Mellon, Pennsylvania (Mỹ), các nhà nghiên cứu đang sử dụng ngân sách của Bộ Quốc phòng để phát triển xe tăng sáu bánh có thể tự tìm đường đi trên chiến trường. Vật mẫu này nặng 6 tấn, có biệt danh “The Crusher” (Máy nghiền) vì khả năng san phẳng những chiếc ôtô. Vật mẫu mới nhất có tên Autonomous Platform Demonstrator (APD, mô hình vận hành tự xử lý), nặng 9 tấn và có thể di chuyển với tốc độ 80km/giờ. APD có các thiết bị tự định vị, vẽ ra con đường cơ bản để di chuyển dựa trên bản đồ vệ tinh Google Earth. Khi lên đường, các máy video sẽ xây dựng môi trường hình ảnh 3D, lên kế hoạch chi tiết về đường đi và những vật cản trở có thể xuất hiện. Ông Dimi Apostolopoulos, phụ trách dự án APD, cho biết ban đầu APD được dùng cho các khu vực nguy hiểm nhất. Ông nói: “Chúng tôi tin rằng việc đưa các robot ra mặt trận sẽ thay đổi tình huống chiến sự. Không có gì nghi ngờ về thực tế đó, vì robot sẽ đưa rất nhiều con người ra khỏi tình huống khó khăn nhất. Cá nhân tôi cho rằng điều đó là tốt cho cả hai bên chiến tuyến”. Các nghiên cứu về robot quân đội đang được tiến hành trên thế giới rất đa dạng, từ nhỏ tới lớn, từ ấn tượng tới kỳ dị. Tại phòng nghiên cứu robot ở Cơ quan Boston Dynamics, các kỹ sư sử dụng ngân sách từ Cơ quan Quản lý các dự án nghiên cứu tiên tiến trong phòng vệ Mỹ (Darpa) đang phát triển robot bốn chân có thể đi bất kỳ nơi nào mà con người và động vật có thể đi. Gọi là BigDog (Chó to), loại robot này dùng các thiết bị cảm ứng và môtơ để điều khiển thăng bằng tự động, đi được trên những địa hình không bằng phẳng và trông giống như một con dê không đầu, thậm chí ngay cả khi bị đạp một cái nó vẫn có thể tự xử lý để không bị ngã (xem: http://www.youtube.com/watch?v=Qly9EMgcCDE). Phóng to Những ụ súng máy tự động của Israel có chức năng “thấy là bắn liền” - Ảnh: defenseindustrydaily.com Ai phạm tội ác khi robot bắn vào xe cứu thương? Nhưng có lẽ đáng sợ hơn là đề xuất nghiên cứu mà Darpa đưa ra: xâm nhập vào các côn trùng đang bay, tức là sử dụng UAV sinh học (bản thân đã có đủ khả năng tự xử lý). Những thiết bị điều khiển điện tử có thể được cấy vào các côn trùng trong thời gian chúng biến hóa, sau đó chúng sẽ làm được mọi việc. Tuy nhiên, một số nhà nghiên cứu cho rằng ý tưởng này hơi khó thực hiện. Một thực tế rõ ràng là các quốc gia phát triển đang đầu tư mạnh vào robot quân sự. RAF có năm máy bay không người lái tấn công tự động (Reaper UAV) và đang đặt hàng thêm năm chiếc nữa. Bộ Quốc phòng Mỹ đang có kế hoạch nâng lực lượng tấn công, do thám tự động và cả UAV đa chức năng từ 300 “con” năm 2011 lên 800 “con” vào năm 2020. Như Gordon Johnson thuộc Lực lượng chỉ huy liên quân Mỹ từng nói một câu rất nổi tiếng về robot sử dụng trong quân đội: “Chúng không đói. Không biết sợ. Không quên lệnh”. Tuyên bố này làm người ta nhớ lại một câu nói trong bộ phim bom tấn năm 1986 Short circuit, trong đó Newton Crosby, nhà khoa học sản xuất ra con robot tự xử lý, đã nói: “Nó không sợ. Nó không phấn khích. Nó không buồn. Nó chỉ làm theo lệnh được lập trình!”. Nhưng trong phim đó, con robot đã đi lang thang. Điều gì sẽ xảy ra trong đời thực nếu có trục trặc trong vận hành của robot quân đội? Vẫn có những khả năng sai sót trong quá trình vận hành và hậu quả sẽ ra sao? Ngay với các robot quân đội do con người vận hành hiện nay cũng đang gây tranh cãi. Một số người tin rằng CIA đã sử dụng UAV để tiêu diệt các tay súng bị cho là lực lượng nổi dậy ở Pakistan. Điều này đi ngược lại lệnh của tổng thống Gerald Ford năm 1976: cấm dùng robot cho các vụ ám sát chính trị. Nhưng với các hệ thống robot tự xử lý, con người không tham gia việc điều khiển robot thì câu chuyện phức tạp hơn nhiều. Luật sư Chris Elliott nói với tờ Telegraph: “Nếu một cái máy học cách bắn vào một xe cứu thương chứ không phải xe tăng thì lỗi của ai? Ai đã phạm tội ác?”. Giới khoa học và luật sư cũng đã lên tiếng bày tỏ sự lo ngại tương tự như Elliott. Noel Sharkey, giáo sư về trí thông minh nhân tạo tại ĐH Sheffield (Anh), cho rằng một robot tự xử lý ngày nay không thể phân biệt được ai là dân thường và ai là người tham gia chiến sự. Và đây là vướng mắc trong luật nhân đạo quốc tế. Sharkey nói: “Không phải lúc nào cũng phù hợp để nổ súng và giết người. Có rất nhiều ví dụ trong cuộc chiến Iraq. Những tay súng nổi dậy đã ẩn nấp ở các con hẻm, và khi lực lượng thủy quân lục chiến Mỹ mang vũ khí đến, bắt đầu giương súng lên ngắm bắn thì phát hiện đối phương thật ra khiêng quan tài đến nghĩa trang. Vì vậy họ phải hạ súng, gỡ mũ bảo vệ ra để bày tỏ sự thương tiếc vĩnh biệt người đã qua đời và để đối phương đi qua. Robot không thể quyết định như vậy được. Vậy robot sẽ quan tâm tới cái gì?”. Cơ quan nghiên cứu Hải quân Mỹ thừa nhận có những vướng mắc pháp lý và đạo đức về việc trao toàn quyền tự quyết cho robot. Báo cáo gợi ý có thể lập trình cho robot hành xử “ít nhất là có đạo đức như binh sĩ thật” và có thể robot không chịu ràng buộc về pháp lý (giống như khi trẻ con vi phạm luật). Tuy nhiên Rob Alexander, nhà khoa học máy tính tại ĐH York (Anh), cho rằng một cái máy thì không thể bị chịu trách nhiệm và có khả năng giải trình về hành động của mình. Đó là máy móc và người điều khiển hay thiết kế phải chịu trách nhiệm về những hành vi của máy móc. Trong cuốn sách gần đây Cities under siege: The new military urbanism (Các thành phố bị bao vây: chính sách đô thị hóa chiến sự mới), ông Stephen Graham - chuyên gia địa lý nhân học ở ĐH Durham (Anh) - lập luận mang đến cho máy móc khả năng tự xử lý là kết quả của quá trình đưa chiến tranh từ các chiến trường vào thành phố, nơi mà các kỹ thuật quân sự tiên tiến không thể thực hiện hết khả năng do vướng phải các bức tường và nơi trú ẩn của đối phương. Nhưng mối nguy hiểm thật sự từ việc robot tự xử lý ra đời và ngày càng được sử dụng nhiều, theo đánh giá của ông Graham, là chúng giúp làm giảm chi phí chính trị của việc phát động và tham gia chiến tranh.
Người dân bắt đầu nghỉ lễ, xe cộ 'rồng rắn' hàng km tại các cửa ngõ TP.HCM MINH HÒA 29/04/2025 Chiều 29-4, Tuổi Trẻ Online ghi nhận hàng ngàn ô tô đổ về các cửa ngõ phía Đông, phía Tây TP.HCM để đi chơi, về quê... trong dịp lễ 30-4.
Trung Quốc: cháy nhà hàng dữ dội khiến 22 người chết, ông Tập Cận Bình ra chỉ thị quan trọng THANH BÌNH 29/04/2025 Đài truyền hình trung ương Trung Quốc đưa tin ít nhất 22 người chết trong vụ hỏa hoạn tại nhà hàng ở đông bắc nước này hôm nay.
5 vị trí nào đẹp nhất để xem trực thăng kéo cờ, SU30MK nhào lộn ở trung tâm TP.HCM sáng 30-4? CHÂU TUẤN 29/04/2025 Vị trí để xem rõ nhất máy bay trực thăng kéo cờ, SU30MK nhào lộn, thả đạn nhiệt tại trung tâm TP.HCM đang được người dân đặc biệt quan tâm.
Từ 3h sáng 30-4 cấm thêm hàng loạt đường trung tâm, người dân gửi xe ở đâu xem diễu binh? THU DUNG 29/04/2025 Đó là thông tin nhiều người dân TP.HCM quan tâm khi đi xem lễ diễu binh, diễu hành kỷ niệm lễ 30-4 ở khu trung tâm TP.HCM.