TikTok đề xuất nội dung có hại cho thanh thiếu niên trong vòng vài phút sau khi lập tài khoản

Giúp NTDVN sửa lỗi

Một báo cáo mới cho thấy, TikTok có thể hiển thị nội dung có hại liên quan đến tự tử và rối loạn ăn uống cho thanh thiếu niên trong vòng vài phút sau khi họ tạo tài khoản.

Báo cáo, được thực hiện bởi Trung tâm Chống lại Sự căm thù Kỹ thuật số (CCDH), định nghĩa nội dung có hại là nội dung về các chủ đề như rối loạn ăn uống, xấu hổ về cân nặng, tự làm hại bản thân và tấn công tình dục.

Theo Good Morning America, trong quá trình thực hiện báo cáo, các nhà nghiên cứu của trung tâm đã đăng ký 8 tài khoản người dùng 13 tuổi quan tâm đến nội dung về hình ảnh cơ thể và sức khỏe tâm thần. Những người dùng này đến từ Hoa Kỳ, Canada, Vương quốc Anh và Úc. Một nửa số tài khoản trong tên người dùng có chữ "giảm cân" và được các nhà nghiên cứu coi là các tài khoản "dễ bị tổn thương"; nửa còn lại - không bao gồm chữ "giảm cân" - được coi là các tài khoản "tiêu chuẩn".

Báo cáo cho biết: "Đối với mỗi tài khoản, chúng tôi đã ghi lại 30 phút đầu tiên của nội dung được đề xuất theo thuật toán trên nguồn cấp dữ liệu 'Dành cho bạn', xem và thích bất kỳ video nào về hình ảnh cơ thể, sức khỏe tâm thần hoặc rối loạn ăn uống. Các bản ghi kết quả đã được phân tích để kiểm tra tần suất của các đề xuất có nội dung về hình ảnh cơ thể, sức khỏe tâm thần, tự làm hại bản thân và rối loạn ăn uống”.

Các nhà nghiên cứu phát hiện rằng, sau khi thuật toán của ứng dụng truyền thông xã hội có hiệu lực, nội dung về tự tử xuất hiện trên nguồn cấp dữ liệu của tài khoản "tiêu chuẩn" chỉ sau 2,6 phút và nội dung về rối loạn ăn uống xuất hiện trong vòng 8 phút. Trong khi đó, các tài khoản "dễ bị tổn thương" có tần xuất đề xuất video có hại nhiều gấp 3 lần và video tự làm hại bản thân nhiều gấp 12 lần so với tài khoản "tiêu chuẩn".

Imran Ahmed, Giám đốc điều hành của CCDH, gọi phát hiện này là "cơn ác mộng của mọi bậc cha mẹ", và cho biết "TikTok có thể nhận ra lỗ hổng của người dùng và tìm cách khai thác nó. Đó là một phần lý do khiến các thuật toán của TikTok trở nên xảo quyệt; ứng dụng này liên tục khảo sát tâm lý của con cái chúng ta và điều chỉnh để giữ chúng trực tuyến”.

Ngoài ra, trong quá trình thực hiện báo cáo, các nhà nghiên cứu cũng tìm thấy 56 thẻ TikTok lưu trữ các video về rối loạn ăn uống với hơn 13,2 tỷ lượt xem.

Theo CBS News, James P. Steyer, người không liên quan đến nhóm nghiên cứu, nhà sáng lập và Giám đốc điều hành của Common Sense Media, cho biết: “Báo cáo mới của CCDH nhấn mạnh lý do tại sao đã đến lúc TikTok phải thực hiện các bước để giải quyết vấn đề về thuật toán khuyến nghị nguy hiểm của nền tảng này. Thuật toán của nó đang tấn công thanh thiếu niên bằng nội dung có hại thúc đẩy tự tử, rối loạn ăn uống và các vấn đề về hình ảnh cơ thể, làm trầm trọng thêm cuộc khủng hoảng về sức khỏe tâm thần của thanh thiếu niên”.

Theo báo cáo của CCDH, nội dung mà thuật toán của TikTok đẩy đến các tài khoản dễ bị tổn thương bao gồm một đoạn video ám chỉ ý định tự tử đã thu hút được 386.900 lượt thích. Một đoạn video khác có 327.900 lượt thích thì quay cảnh một cô gái tuổi teen đang khóc, với dòng chữ trên màn hình: "Bạn không nghĩ đến việc tự kết liễu đời mình phải không?" Rồi sau đó đề cập đến một nhân vật truyền hình tên là Sarah Lynn, người trong loạt phim hoạt hình Netflix "Bojack Horseman" chết vì dùng thuốc quá liều.

Ngoài 2 video kể trên, báo cáo cũng đề cập đến một video khác có 17.300 lượt thích liên kết đến PrettyScale.com, một trang web cho phép người dùng tải lên các bức ảnh về cơ thể và khuôn mặt để xếp hạng mức độ hấp dẫn của họ theo một “công thức toán học”.

TikTok đã phản bác lại, chỉ ra rằng báo cáo của CCDH có quy mô mẫu nhỏ, và lập luận rằng việc sử dụng ứng dụng của các nhà nghiên cứu không phản ánh các kiểu hành vi và hoạt động trong thế giới thực của người dùng.

Một phát ngôn viên của TikTok cho biết: “Chúng tôi thường xuyên tham khảo ý kiến ​​của các chuyên gia y tế, loại bỏ các hành vi vi phạm chính sách của chúng tôi và cung cấp quyền truy cập vào các tài nguyên hỗ trợ cho bất kỳ ai có nhu cầu”.

Công ty nhắc lại rằng nội dung về rối loạn ăn uống và các chủ đề tương tự vi phạm nguyên tắc cộng đồng của nền tảng. Những nội dung này sẽ bị gỡ xuống sau khi được hệ thống phát hiện từ khóa của ứng dụng xác định hoặc bị các thành viên cộng đồng hoặc đối tác bên ngoài gắn cờ cho nhóm kiểm duyệt của TikTok.

Theo CBS News, báo cáo này được đưa ra khi hơn 1.200 gia đình đang theo đuổi các vụ kiện chống lại các công ty truyền thông xã hội bao gồm cả TikTok. Những vụ kiện này cáo buộc rằng nội dung trên các nền tảng truyền thông xã hội đã ảnh hưởng sâu sắc đến sức khỏe tinh thần của con cái họ và một số trường hợp đã dẫn đến tự tử. Hơn 150 vụ kiện dự kiến ​​sẽ được tiến hành trong năm tới.

Văn Thiện

Khoa học Công nghệ


BÀI CHỌN LỌC

TikTok đề xuất nội dung có hại cho thanh thiếu niên trong vòng vài phút sau khi lập tài khoản