Bài học từ Ukraine: Nhiều nước trên thế giới đang phát triển robot sát thủ

Giúp NTDVN sửa lỗi

Theo bản chỉ thị đã được cập nhật của Bộ Quốc phòng Hoa Kỳ, quân đội nước này đang thúc đẩy các cam kết phát triển và sử dụng vũ khí tự hành hay vũ khí tự động.

Bản cập nhật, được phát hành vào ngày 25/1/2023, là bản đầu tiên trong một thập kỷ đặt trọng điểm vào vũ khí tự hành trí tuệ nhân tạo. Nó theo sau một kế hoạch triển khai do NATO công bố vào ngày 13/10/2022, nhằm mục đích duy trì "lợi thế công nghệ" của liên minh trong loại vũ khí mà đôi khi được gọi là "robot sát thủ".

Cả hai thông báo của Hoa Kỳ và NATO đều phản ánh một bài học quan trọng mà quân đội trên khắp thế giới đã học được từ các hoạt động chiến đấu gần đây ở Ukraine và Nagorno-Karabakh: Trí tuệ nhân tạo được vũ khí hóa là tương lai của chiến tranh.

Richard Moyes, giám đốc của Article 36, một tổ chức nhân đạo tập trung vào việc giảm thiểu tác hại của vũ khí, nói với tôi trong một cuộc phỏng vấn: “Chúng tôi biết rằng các chỉ huy đang nhìn thấy giá trị quân sự của bom, đạn lảng vảng ở Ukraine”.

Những vũ khí này, là sự kết hợp giữa bom và máy bay không người lái, có thể bay lơ lửng thời gian dài trong khi chờ đợi mục tiêu. Hiện tại, các tên lửa bán tự hành như vậy thường được vận hành với sự kiểm soát đáng kể của con người trong việc đưa ra các quyết định quan trọng, ông nói.

Áp lực từ cuộc chiến tại Ukraine

Sau khi thương vong gia tăng ở chiến trường Ukraine, thì áp lực đạt được những lợi thế quyết định đã khiến các bên tham chiến cân nhắc đến việc sử dụng vũ khí hoàn toàn tự hành – những robot có thể tự mình lựa chọn, săn lùng và tấn công mục tiêu mà không cần bất kỳ sự giám sát nào của con người.

Trong tháng này, một nhà sản xuất chủ chốt của Nga đã công bố kế hoạch phát triển một phiên bản chiến đấu mới của robot trinh sát Marker, một phương tiện mặt đất không người lái, để tăng cường cho các lực lượng hiện có ở Ukraine.

Máy bay không người lái hoàn toàn tự hành đã được sử dụng để bảo vệ các cơ sở năng lượng của Ukraine khỏi các máy bay không người lái khác. Wahid Nawabi, Giám đốc điều hành của nhà thầu quốc phòng Hoa Kỳ sản xuất máy bay không người lái Switchblade bán tự hành, cho biết công ty đã có đủ năng lực công nghệ để biến những vũ khí này thành tự hành hoàn toàn.

Mykhailo Fedorov, Bộ trưởng chuyển đổi kỹ thuật số của Ukraine, đã lập luận rằng vũ khí hoàn toàn tự hành là "bước tiếp theo hợp lý và không thể tránh khỏi" của cuộc chiến và gần đây ông cũng nói rằng những người lính có thể nhìn thấy chúng trên chiến trường trong sáu tháng tới.

Những người ủng hộ các hệ thống vũ khí tự hành hoàn toàn lập luận rằng công nghệ này sẽ giúp binh lính tránh khỏi nguy hiểm bằng cách giữ họ ở ngoài vòng chiến đấu. Chúng cũng sẽ cho phép các quyết định quân sự được đưa ra với tốc độ siêu nhanh, cải thiện triệt để khả năng phòng thủ.

Hiện tại, các loại vũ khí bán tự hành, chẳng hạn như bom lảng vảng có thể theo dõi và tự kích nổ khi chạm vào mục tiêu, đòi hỏi phải có con người trong việc đưa ra quyết định. Chúng có thể đề xuất các hành động nhưng yêu cầu người vận hành kích hoạt.

Ngược lại, máy bay không người lái hoàn toàn tự hành, chẳng hạn như "máy bay không người lái thợ săn" (drone hunter) hiện được triển khai ở Ukraine, có thể theo dõi và vô hiệu hóa một cách nhanh chóng các phương tiện bay không người lái cả ngày lẫn đêm mà không cần sự can thiệp của người điều khiển.

Những chỉ trích đối với việc sử dụng robot sát thủ

Việc sử dụng robot tự hành cũng vấp phải những sự chỉ trích.

Chiến dịch Ngăn chặn Robot Sát thủ đã thúc đẩy việc cấm nghiên cứu và phát triển các hệ thống vũ khí tự hành trong hơn một thập kỷ. Họ chỉ ra một tương lai nơi các hệ thống vũ khí tự hành được thiết kế không chỉ nhắm vào phương tiện, cơ sở hạ tầng và các loại vũ khí khác, mà còn cả con người.

Chiến dịch này lập luận rằng các quyết định về sự sống và cái chết trong thời chiến phải nằm trong tay con người. Việc chuyển chúng sang cho một thuật toán chính là dạng thức tối hậu của việc loại bỏ nhân tính kỹ thuật số (digital dehumanization).

vũ khí tự hành, vũ khí tự động, robot giết người, máy bay không người lái sát thủ
Hình ảnh cho thấy một máy bay không người lái mang bom 'Switchblade' đang mở rộng đôi cánh sau khi phóng từ một ống. (Ảnh: Quân đội Hoa Kỳ)

Cùng với Tổ chức Theo dõi Nhân quyền, Chiến dịch Ngăn chặn Robot Sát thủ lập luận rằng các hệ thống vũ khí tự hành thiếu sự đánh giá cần thiết của con người để phân biệt giữa dân thường và các mục tiêu quân sự hợp pháp. Chúng cũng làm hạ thấp ngưỡng dẫn đến chiến tranh bằng cách đánh giá thấp các rủi ro đã được nhận thức và làm xói mòn quyền kiểm soát có ý nghĩa của con người đối với những gì xảy ra trên chiến trường.

Các tổ chức chỉ trích lập luận rằng quân đội của những nước đầu tư nhiều nhất vào các hệ thống vũ khí tự hành, bao gồm Mỹ, Nga, Trung Quốc, Hàn Quốc và Liên minh châu Âu, đang đưa thế giới vào một cuộc chạy đua vũ trang mới tốn kém và gây bất ổn. Một hậu quả nữa là công nghệ mới nguy hiểm này có thể bị rơi vào tay bọn khủng bố và những kẻ khác ngoài tầm kiểm soát của các chính phủ.

Chỉ thị mới cập nhật của Bộ Quốc phòng Hoa Kỳ đã cố gắng giải quyết một số mối lo ngại chính khi tuyên bố rằng, Washington sẽ sử dụng các hệ thống vũ khí tự hành với "mức độ phán quyết thích hợp của con người đối với việc sử dụng vũ lực".

Tuy nhiên, Tổ chức Theo dõi Nhân quyền chỉ trích rằng chỉ thị mới không làm rõ cụm từ "mức độ phù hợp" có nghĩa là gì và không thiết lập hướng dẫn cụ thể để xác định nó.

Theo lập luận của Gregory Allen, một chuyên gia về quốc phòng và quan hệ quốc tế tại Trung tâm Nghiên cứu Chiến lược và Quốc tế, thì cách nói đó thiết lập một ngưỡng thấp hơn so với "sự kiểm soát có ý nghĩa của con người" mà các nhà phê bình đòi hỏi.

Ông chỉ ra rằng cách diễn đạt của Bộ Quốc phòng cho phép xảy ra nhiều khả năng trong một số trường hợp nhất định, chẳng hạn như với máy bay giám sát, mức độ kiểm soát phù hợp của con người "có thể là ít hoặc không".

Chỉ thị cập nhật cũng bao gồm ngôn ngữ hứa hẹn sử dụng có đạo đức các hệ thống vũ khí tự hành, đặc biệt bằng cách thiết lập một hệ thống giám sát để phát triển và sử dụng công nghệ, và bằng cách nhấn mạnh rằng vũ khí sẽ được sử dụng theo luật chiến tranh quốc tế hiện hành.

Nhưng Moyes đến từ tổ chức Article 36 lưu ý rằng, luật pháp quốc tế hiện không cung cấp một khuôn khổ đầy đủ để hiểu, và chưa có các quy định đối với khái niệm quyền tự chủ của vũ khí.

Ví dụ, khung pháp lý hiện tại không nói rõ rằng các chỉ huy có trách nhiệm phải hiểu điều gì sẽ kích hoạt các hệ thống mà họ sử dụng, hoặc họ sẽ phải giới hạn khu vực và thời gian mà các hệ thống đó sẽ hoạt động như thế nào.

Moyes nói: “Điều nguy hiểm là không có ranh giới rõ ràng giữa vai trò hiện tại của chúng ta và vai trò của chúng ta sau khi đã chấp nhận điều không thể chấp nhận được”.

Một đòi hỏi cân bằng bất khả thi?

Bản cập nhật của Lầu Năm Góc thể hiện cam kết thực hiện đồng thời hai việc: triển khai các hệ thống vũ khí tự hành và tuân thủ luật nhân đạo quốc tế. Làm thế nào Hoa Kỳ sẽ cân bằng các cam kết này, và nếu một sự cân bằng như vậy thậm chí có thể xảy ra, thì vẫn chúng ta vẫn cần phải chờ xem.

Ủy ban Chữ thập đỏ quốc tế, cơ quan giám sát luật nhân đạo quốc tế, khẳng định rằng các nghĩa vụ pháp lý của những người chỉ huy và điều hành “không thể chuyển giao cho máy móc, thuật toán hoặc hệ thống vũ khí”. Ngay bây giờ, con người chịu trách nhiệm bảo vệ dân thường và hạn chế thiệt hại chiến đấu bằng cách đảm bảo việc sử dụng vũ lực tương ứng với các mục tiêu quân sự.

Nếu và khi vũ khí thông minh nhân tạo được triển khai trên chiến trường, ai phải chịu trách nhiệm khi xảy ra những cái chết không đáng có của dân thường? Hiện tại, chúng ta vẫn không có câu trả lời rõ ràng cho câu hỏi rất quan trọng này.

Bài viết của James Dawes, Giáo sư chuyên nghiên cứu về nhân quyền tại Đại học Macalester, được đăng lần đầu trên The Conversation.

Bài viết chỉ phản ánh quan điểm của tác giả, không nhất thiết phản ánh quan điểm của NTD Việt Nam.

Theo The Conversation

Văn Thiện biên dịch

Khoa học Công nghệ


BÀI CHỌN LỌC

Bài học từ Ukraine: Nhiều nước trên thế giới đang phát triển robot sát thủ