Sự bùng nổ của AI về ảnh khỏa thân giả đang hủy hoại cuộc sống của thanh thiếu niên

Giúp NTDVN sửa lỗi

Vừa qua, trên mạng xã hội lan truyền hình ảnh khỏa thân của một người người nổi tiếng YouTube là Gabi Belle, khi biết tin này, cô vô cùng choáng váng. Cô chưa bao giờ chụp ảnh khỏa thân đứng trên cánh đồng. Cô biết nó chắc chắn là giả.

Cô Belle, 26 tuổi, đã nhắn tin cho một đồng nghiệp yêu cầu trợ giúp xóa hình ảnh khỏa thân ấy. Các đồng nghiệp nói với cô rằng gần 100 bức ảnh giả của cô đã được rải rác khắp Internet, chủ yếu là trên các trang web được biết đến là nơi lưu trữ nội dung khiêu dâm do trí tuệ nhân tạo (AI) tạo ra.

Cô Belle cho biết những bức ảnh này đã bị gỡ xuống vào tháng 7, nhưng những bức ảnh mới chụp cô trong những cảnh ân ái lại xuất hiện.

Belle nói trong một cuộc phỏng vấn: "Tôi cảm thấy ghê tởm và bị xâm phạm. Những phần riêng tư đó không nên được cho thế giới nhìn thấy, vì vậy thật kỳ lạ khi ai đó làm giả ảnh của tôi khi tôi không đồng ý".

Năm nay, trí tuệ nhân tạo đang thúc đẩy sự bùng nổ chưa từng có về hình ảnh và video khiêu dâm giả mạo.

Điều này được hỗ trợ bởi sự phát triển của các công cụ trí tuệ nhân tạo rẻ tiền và dễ sử dụng, một người trong ảnh có thể "cởi đồ", phân tích cơ thể trần truồng của họ trông như thế nào và hiển thị chúng trong ảnh hoặc loại bỏ quần áo khỏi khuôn mặt của một người và được thay thế thành video khiêu dâm.

Theo nhà phân tích ngành nghề Genevieve Oh, số lượng ảnh khỏa thân giả đã tăng hơn 290% kể từ năm 2018 trên 10 trang web hàng đầu lưu trữ ảnh khiêu dâm do AI tạo ra .

Các trang web này nhắm mục tiêu vào những người nổi tiếng và nhân vật chính trị có ngoại hình giống nhau được những kẻ xấu sử dụng để hạ nhục mục tiêu, tống tiền hoặc thỏa mãn những ảo tưởng riêng tư.

Các nạn nhân không có quyền truy đòi. Hiện tại không có luật liên bang nào quy định về nội dung khiêu dâm deepfake và chỉ một số bang ban hành quy định.

Lệnh điều hành trí tuệ nhân tạo do Tổng thống Biden ban hành hôm thứ Hai tuần trước (30/10) đã khuyến nghị nhưng không yêu cầu các công ty phải dán nhãn ảnh, video và âm thanh do trí tuệ nhân tạo tạo ra và thông báo rằng chúng là tác phẩm do máy tính tạo ra.

Trong khi đó, các học giả pháp lý đã cảnh báo rằng những hình ảnh do AI tạo ra có thể không được bảo vệ bản quyền đối với các bức chân dung cá nhân vì chúng được vẽ từ bộ sưu tập hàng triệu hình ảnh.

Tiffany Li, giáo sư luật tại Đại học San Francisco, cho biết: “Đây rõ ràng là một vấn đề rất nghiêm trọng”.

Sự xuất hiện của các hình ảnh do AI cung cấp gây ra những rủi ro đặc biệt cho phụ nữ và thanh thiếu niên, nhiều người trong số họ chưa sẵn sàng cho tình huống này.

Một nghiên cứu năm 2019 của Sensity AI, một công ty chuyên theo dõi các tác phẩm deepfake, cho thấy 96% hình ảnh deepfake là khiêu dâm và 99% ảnh là phụ nữ.

Sophie Maddocks, nhà nghiên cứu tại Đại học Pennsylvania và là người ủng hộ quyền kỹ thuật số, cho biết: "Hiện tại, nó chủ yếu nhắm vào các cô gái trẻ và phụ nữ, những người bình thường và không có ảnh hưởng trong công chúng”.

Một cô gái 14 tuổi cũng phát hiện ra bức ảnh khỏa thân của mình trên mạng.

Cô chưa bao giờ tạo dáng khỏa thân. Theo cảnh sát, một nhóm chàng trai địa phương đã lấy những bức ảnh mặc quần áo từ hồ sơ mạng xã hội của một số cô gái trong thị trấn của họ và sau đó sử dụng ứng dụng "khỏa thân" trí tuệ nhân tạo để tạo ra những bức ảnh khỏa thân.

Khi Genevieve Oh kiểm tra 10 trang web hình ảnh khiêu dâm giả mạo hàng đầu, phát hiện ra rằng hơn 415.000 hình ảnh khiêu dâm giả mạo đã được tải lên trong năm nay và đã được xem gần 90 triệu lần.

Các video khiêu dâm do AI tạo ra cũng đang bùng nổ trên mạng.

Sau khi tìm kiếm 40 trang web video giả phổ biến nhất, Genevieve Oh nhận thấy có hơn 143.000 video mới vào năm 2023, nhiều hơn tất cả video mới từ năm 2016 đến năm 2022. Genevieve Oh phát hiện ra rằng các video giả mạo đã được xem hơn 4,2 tỷ lần.

Cục Điều tra Liên bang Mỹ đã cảnh báo vào tháng 6 về sự gia tăng hoạt động tống tiền của những kẻ lừa đảo, những kẻ yêu cầu thanh toán hoặc chụp ảnh để đổi lấy việc không phát tán hình ảnh khiêu dâm. Mặc dù không rõ có bao nhiêu hình ảnh trong số này được tạo ra bởi trí tuệ nhân tạo nhưng hoạt động này đang ngày càng mở rộng.

FBI nói với Washington Post rằng tính đến tháng 9, hơn 26.800 người đã trở thành nạn nhân của các hoạt động "tống tiền", tăng 149% so với năm 2019.

Google có các chính sách nhằm ngăn chặn hình ảnh khiêu dâm không có sự đồng thuận xuất hiện trong kết quả tìm kiếm, nhưng các biện pháp bảo vệ chống lại hình ảnh giả mạo không hiệu quả cao.

Ngay cả khi không tìm kiếm cụ thể nội dung do AI tạo ra, các hình ảnh và công cụ sản xuất khiêu dâm deepfake vẫn xuất hiện nổi bật trong các công cụ tìm kiếm của công ty.

Genevieve Oh đã ghi lại hơn chục ví dụ trong ảnh chụp màn hình, tất cả đều được The Washington Post xác nhận độc lập.

Trong trường hợp không có luật liên bang, ít nhất chín tiểu bang, bao gồm California, Texas và Virginia của Hoa Kỳ đã thông qua các dự luật nhắm mục tiêu vào deepfake. Nhưng phạm vi của các luật này khác nhau.

Ở một số bang, nạn nhân có thể nộp đơn tố cáo hình sự, trong khi những bang khác chỉ cho phép khởi kiện dân sự, mặc dù rất khó để xác định ai sẽ kiện.

Ông Sam Gregory, giám đốc điều hành của Witness, một nhóm công nghệ ủng hộ nhân quyền, cho biết nỗ lực quản lý hình ảnh và video do trí tuệ nhân tạo tạo ra thường nhằm ngăn chặn việc phổ biến trên quy mô lớn và từ đó giải quyết những lo ngại về can thiệp bầu cử.

Nhưng Gregory nói thêm rằng những quy tắc này sẽ ít ảnh hưởng đến nội dung khiêu dâm deepfake, vì hình ảnh được chia sẻ ở quy mô nhỏ có thể hủy hoại cuộc sống của một người.

Theo The Epoch Times tiếng Trung
Lý Ngọc biên dịch



BÀI CHỌN LỌC

Sự bùng nổ của AI về ảnh khỏa thân giả đang hủy hoại cuộc sống của thanh thiếu niên