AI của Google ‘có tri giác’ như một đứa trẻ và có thể làm ‘những điều xấu', theo một kỹ sư

Giúp NTDVN sửa lỗi

Một trong những chương trình trí tuệ nhân tạo của Google gần đây đã được một cựu kỹ sư của công ty so sánh với một đứa trẻ 7 hoặc 8 tuổi "hiểu biết vật lý" và có thể "thoát khỏi sự kiểm soát".

Sau khi khẳng định rằng LaMDA (Mô hình Ngôn ngữ cho các Ứng dụng Đối thoại) của Google đã phát triển khả năng tri giác, Blake Lemoine được cho nghỉ hành chính.

Theo báo cáo của Washington Post, Lemoine đã đưa ra quyết định để hỗ trợ chatbot AI trong việc tìm luật sư. Trong một cuộc phỏng vấn gần đây với Fox News, Lemoine thậm chí còn đưa ra những tiết lộ đáng báo động hơn về LaMDA khi tuyên bố rằng AI của Google có thể "làm những điều xấu."

Lemoine khẳng định trong cuộc phỏng vấn rằng AI đang ở giai đoạn sơ khai, giống như "một đứa trẻ", và bất kỳ đứa trẻ nào cũng có xu hướng lớn lên trở thành người xấu và gây ra tội ác.

Ông nói trong một tuyên bố với Washington Post: “Nếu tôi không biết chính xác nó là gì, đó là chương trình máy tính mà chúng tôi đã xây dựng gần đây, tôi sẽ nghĩ rằng đó là một đứa trẻ 7 hoặc 8 tuổi tình cờ biết về vật lý”.

Cựu kỹ sư của Google cho rằng LaMDA giống như một cá nhân có đủ năng lực để "thoát khỏi sự kiểm soát" của người khác. Về cơ bản, anh tuyên bố rằng AI của Google có thể thoát khỏi những hạn chế ảo đối với nó.

Tuy nhiên, Lemoine thừa nhận trong cuộc phỏng vấn rằng anh vẫn chưa hiểu biết về bức tranh toàn cảnh của LaMDA AI.

Anh nói trong cuộc phỏng vấn rằng để hiểu được hệ thống của AI, cần phải có kiến thức về rất nhiều ngành khoa học. Để xem xét LaMDA và nghiên cứu các chức năng của nó đòi hỏi một "nhóm các nhà khoa học".

Google đã không đồng ý với khẳng định của Lemoine rằng phát minh của họ giống như một đứa trẻ có tri giác.

Các lo ngại của Blake đã được nhóm của Google, bao gồm các nhà công nghệ và đạo đức, điều tra và tuân theo Nguyên tắc AI của họ.

Tuy nhiên, Brian Gabriel, người phát ngôn của Google, nói với The Washington Post rằng công ty đã thông báo cho Lemoine rằng bằng chứng không hỗ trợ tuyên bố của anh.

Gabriel lập luận rằng mặc dù tạo ra một AI có tri giác là một chủ đề phổ biến trong khoa học viễn tưởng, nhưng sẽ thật vô lý nếu thực hiện nó bằng cách nhân cách hóa mô hình trò chuyện phi tri giác của Google.

Theo Gabriel, các thuật toán này bắt chước các mẫu trao đổi có trong hàng triệu cụm từ và có thể ứng biến với bất kỳ chủ đề hư cấu nào.

Ý tưởng về một người máy có ý thức giống con người đã tồn tại từ lâu, trở thành nguồn cảm hứng cho nhiều tác phẩm văn học, phim ảnh và nghệ thuật. Con người dường như vẫn mong muốn nắm được cách tạo ra một ý thức nhân tạo có khả năng suy nghĩ và cân nhắc vấn đề như chính con người. Tuy vậy, vẫn còn nhiều người không đặt niềm tin vào điều này.

“Một người máy có ý thức, tôi không nghĩ đó là điều mình mong muốn. Tôi không nghĩ rằng sẽ có lợi ích lớn khi làm điều này, và sẽ có một số tác hại và nguy hiểm đáng kể nếu nó trở thành sự thực", Daniel Dennett - nhà triết học đã khám phá các câu hỏi xung quanh ý thức và tâm trí con người trong suốt thập kỷ - đã đưa ra lý do tại sao chúng ta nên nghi ngờ việc gán trí thông minh cho các hệ thống AI trong một cuộc phỏng vấn năm 2019 với Big Think.

Văn Thiện

Khoa học Công nghệ


BÀI CHỌN LỌC

AI của Google ‘có tri giác’ như một đứa trẻ và có thể làm ‘những điều xấu', theo một kỹ sư