Mối đe dọa từ 'robot giết người' là có thực và gần hơn chúng ta nghĩ

Giúp NTDVN sửa lỗi

Từ xe tự lái đến trợ lý kỹ thuật số, trí tuệ nhân tạo (AI) đang nhanh chóng trở thành một công nghệ không thể thiếu trong cuộc sống của chúng ta ngày nay. Tuy nhiên, những công nghệ giúp cuộc sống hàng ngày của chúng ta trở nên dễ dàng hơn này cũng đang được đưa vào vũ khí để sử dụng trong các tình huống chiến đấu.

AI được vũ khí hóa đóng vai trò quan trọng trong các chiến lược an ninh của Mỹ, Trung Quốc và Nga. Và một số hệ thống vũ khí hiện tại đã bao gồm các khả năng tự động dựa trên AI. Sự phát triển hơn nữa AI được vũ khí hóa có nghĩa là máy móc có thể đưa ra quyết định gây sát thương và giết người dựa trên lập trình mà không cần sự can thiệp của con người.

Các quốc gia ủng hộ việc sử dụng vũ khí AI tuyên bố công nghệ này cho phép họ phản ứng với các mối đe dọa mới với tốc độ nhanh hơn tốc độ của con người. Họ cũng nói rằng nó làm giảm rủi ro cho quân nhân và tăng khả năng bắn trúng mục tiêu với độ chính xác cao hơn. Nhưng việc tự đưa ra các quyết định sử dụng vũ lực đối với máy móc lại vi phạm nhân phẩm của con người. Và nó cũng không tương thích với luật pháp quốc tế đòi hỏi sự phán xét của con người trong các hoàn cảnh.

Trên thực tế, vai trò của con người trong các quyết định sử dụng vũ lực đã trở thành một trọng tâm ngày càng tăng trong nhiều cuộc họp của Liên hợp quốc (LHQ). Và tại một cuộc họp của Liên Hợp Quốc, các quốc gia đã đồng ý rằng việc trao các quyết định sử dụng vũ lực cho máy móc “mà không có bất kỳ sự kiểm soát nào của con người” là không thể chấp nhận được về mặt đạo đức và pháp lý.

Nhưng trong khi điều này nghe có vẻ giống như một tin tốt, vẫn tiếp tục có sự khác biệt lớn về cách các quốc gia xác định thế nào là “sự kiểm soát của con người”.

Vấn đề về quan điểm

Xem xét kỹ hơn các tuyên bố khác nhau của chính phủ cho thấy nhiều nước, bao gồm cả các nhà phát triển chính của AI được vũ khí hóa như Mỹ và Anh, ủng hộ những gì được gọi là quan điểm phân tán về sự kiểm soát của con người .

Đây là nơi mà sự kiểm soát của con người hiện hữu trong toàn bộ vòng đời của vũ khí - từ khi phát triển, sử dụng và ở các giai đoạn ra quyết định quân sự khác nhau. Nhưng trong khi điều này nghe có vẻ hợp lý, nó thực sự để lại rất nhiều lỗ hổng khiến cho sự kiểm soát của con người trở nên viển vông hơn.

Xét về mặt giá trị, việc thừa nhận sự kiểm soát của con người như một quá trình chứ không phải là từng quyết định riêng lẻ là đúng đắn và quan trọng. Và nó phản ánh thực tế hoạt động, trong đó có nhiều giai đoạn liên quan đến chuỗi chỉ huy của con người khi quân đội hiện đại lập kế hoạch các cuộc tấn công. Nhưng có những hạn chế khi dựa vào sự hiểu biết này.

Ví dụ, việc thừa nhận nói trên có thể duy trì ảo tưởng về khả năng kiểm soát của con người trong khi thực tế nó đã bị loại bỏ trong những tình huống không quan trọng lắm. Điều này có nguy cơ làm cho chất lượng tổng thể của việc kiểm soát của con người trong chiến tranh trở nên đáng nghi ngờ. Sự kiểm soát của con người được sử dụng ở mọi nơi nói chung và không nơi nào cụ thể.

Điều này có thể cho phép các quốc gia tập trung nhiều hơn vào giai đoạn đầu của nghiên cứu và phát triển và ít tập trung hơn vào các quyết định cụ thể xung quanh việc sử dụng vũ lực trên chiến trường, chẳng hạn như phân biệt giữa dân thường và chiến binh hoặc đánh giá phản ứng quân sự tương xứng - điều cốt yếu để tuân thủ luật pháp quốc tế.

Và mặc dù nghe có vẻ yên tâm khi có sự kiểm soát của con người từ giai đoạn nghiên cứu và phát triển, điều này cho thấy những khó khăn đáng kể về công nghệ. Cụ thể, các thuật toán hiện tại không thể dự đoán và dễ hiểu đối với người điều khiển. Vì vậy, ngay cả khi người điều khiển giám sát các hệ thống áp dụng các thuật toán như vậy khi sử dụng vũ lực, họ cũng không thể hiểu được các hệ thống này đã tính toán các mục tiêu như thế nào.

Máy móc không thể đánh giá đúng giá trị của sự sống con người

Không giống như máy móc, các quyết định sử dụng vũ lực của con người không thể được lập trình trước. Thật vậy, gánh nặng của các nghĩa vụ luật nhân đạo quốc tế áp dụng cho các quyết định sử dụng vũ lực trên chiến trường thực tế, thay vì các giai đoạn trước đó của vòng đời hệ thống vũ khí. Điều này đã được một thành viên của phái đoàn Brazil nhấn mạnh tại các cuộc họp của Liên hợp quốc.

Việc tuân thủ luật nhân đạo quốc tế trong bối cảnh phương thức chiến tranh thay đổi nhanh chóng cũng đòi hỏi sự đánh giá liên tục của con người. Điều này không thể đơn giản được thực hiện với một thuật toán, đặc biệt là trong chiến tranh đô thị, nơi thường dân và chiến binh ở trong cùng một không gian.

Rốt cuộc, việc những cỗ máy có thể ra quyết định kết liễu cuộc sống của con người sẽ vi phạm nhân phẩm bằng cách hạ thấp con người bằng đồ vật. Như Peter Asaro, một nhà triết học về khoa học và công nghệ, lập luận: “Việc phân biệt 'mục tiêu' trong lĩnh vực dữ liệu đang không công nhận cá nhân con người là người có nhân quyền”. Thật vậy, một cỗ máy không thể được lập trình để đánh giá đúng giá trị của sự sống con người.

Nhiều quốc gia đã tranh luận về các quy tắc pháp lý mới để đảm bảo sự kiểm soát của con người đối với các hệ thống vũ khí tự trị. Nhưng một số nước khác, bao gồm cả Hoa Kỳ, cho rằng luật pháp quốc tế hiện hành là đủ. Sự không chắc chắn xung quanh sự kiểm soát có ý nghĩa của con người cho thấy rằng cần phải có sự rõ ràng hơn trong hình thức luật quốc tế mới.

Những luật này phải tập trung vào những thuộc tính thiết yếu giúp cho việc kiểm soát của con người có ý nghĩa, đồng thời duy trì khả năng phán đoán của con người trong bối cảnh các quyết định sử dụng vũ lực cụ thể. Nếu không có những thuộc tính này, có nguy cơ luật quốc tế mới nhằm hạn chế AI được vũ khí hóa sẽ bị giảm giá trị.

Điều này rất quan trọng vì nếu không có các quy định cụ thể, các thực hành hiện tại trong việc ra quyết định của quân đội sẽ tiếp tục định hình những gì được coi là “phù hợp” dù chưa được đưa ra thảo luận nghiêm túc.

Văn Thiện

Theo The Conversation

Khoa học Công nghệ


BÀI CHỌN LỌC

Mối đe dọa từ 'robot giết người' là có thực và gần hơn chúng ta nghĩ