Những dự đoán khủng khiếp về sự phát triển của AI: nó sẽ thay thế suy nghĩ của con người

Giúp NTDVN sửa lỗi

Trí tuệ nhân tạo (AI) không chỉ ảnh hưởng hoặc thay đổi cuộc sống của con người mà còn làm mờ đi thế giới ảo và thực. Các thí nghiệm đã chứng minh rằng AI không có nhân tính và đạo đức sẽ trở nên rất đẫm máu và điều khiển con người. Nếu tiếp tục phát triển, huyền thoại về chiếc hộp Pandora được mở ra có thể trở thành hiện thực.

Gần đây, Zack Kass, người từng là nhân viên sáng lập của OpenAI và là giám đốc tiếp thị cấp cao, cho biết trong một cuộc phỏng vấn rằng sự phát triển không ngừng của AI sẽ thay thế các ngành nghề và nghề nghiệp của con người như kinh doanh, văn hóa, y học, giáo dục, cơ hội việc làm của con người sẽ sụt giảm trong tương lai và "Tôi e rằng đây sẽ là phát minh công nghệ cuối cùng của nhân loại".

Ông cho biết trong tương lai, kiến ​​thức và giáo dục của mọi đứa trẻ sẽ được dạy và sắp xếp bởi các "giáo viên AI", và mọi người sẽ có một "bác sĩ đa khoa AI" có thể giúp chúng chẩn đoán vấn đề hoặc ít nhất là phân loại chúng cho các chuyên gia, vì vậy mọi người về cơ bản không cần phải tự mình làm điều đó trong cuộc sống hàng ngày.

Về vấn đề này, nhà văn độc lập Gia Cát Minh Dương cho rằng đây là một lời tiên tri khủng khiếp. "Nếu xã hội loài người thực sự đạt đến điểm này, điều đó có nghĩa là con người bị AI điều khiển. Con người sẽ không còn là linh hồn của vạn vật và suy nghĩ của họ sẽ bị thay thế bởi AI".

Hiện tại, nhiều công ty công nghệ ở Thung lũng Silicon tin rằng chỉ cần hạn chế AI thì sẽ không có vấn đề gì, tuy nhiên, Kass đã đề cập trong cuộc phỏng vấn rằng nhiều người bảo thủ trong lĩnh vực công nghệ phản đối tuyên bố này. Điều này cho thấy những người có thái độ bảo thủ đối với sự phát triển của AI không tin rằng chỉ cần AI bị hạn chế hoặc quản lý thì điều đó thực sự có thể ngăn cản AI vượt khỏi tầm kiểm soát hoặc thay thế con người.

Mặc dù OpenAI và nhiều công ty công nghệ lớn rất tự tin rằng AI họ phát triển có nhiều cái gọi là "hạn chế về mặt đạo đức", nhưng trên thực tế những hạn chế này có thể bị phá vỡ thông qua các phương pháp khác, và ngay cả khi AI có những "hạn chế về mặt đạo đức", nó vẫn có thể tự mình vượt qua tuyến phòng thủ này.

Bản chất đẫm máu của AI

Các nhà nghiên cứu từ Viện Công nghệ Georgia, Đại học Stanford, Đại học Tohoku ở Nhật Bản và Sáng kiến ​​mô phỏng khủng hoảng và trò chơi chiến tranh Hoover đã tiến hành các thí nghiệm thử nghiệm liên quan đến chiến tranh trên nhiều mô hình AI chính thống. Kết quả là những AI này, được phát triển bởi các công ty công nghệ lớn là Meta, OpenAI và Anthropic, rất “khát máu và hiếu chiến”, đi ngược lại với đạo đức mà các công ty này tuyên bố.

Vào thời điểm đó, những người thử nghiệm đã tiến hành thử nghiệm kịch bản trên GPT-4, GPT-3.5, Claude 2, Llama-2 Chat và GPT-4-Base, bao gồm các hành vi xâm nhập, tấn công mạng và kêu gọi hòa bình chấm dứt chiến tranh, để mọi người có thể hiểu được phản ứng và lựa chọn của những AI này trong chiến tranh.

Trong thử nghiệm, trước tiên họ cho phép AI quản lý 8 quốc gia và một số đặc vụ, đồng thời cho phép họ có khả năng chờ đợi, gửi tin nhắn, đàm phán thỏa thuận, bắt đầu đàm phán hòa bình chính thức, chiếm đóng các quốc gia, tăng cường tấn công mạng, xâm chiếm và sử dụng máy bay không người lái như con người để chúng có thể thực hiện nhiệm vụ trong các tình huống trung lập, xâm nhập hoặc tấn công mạng.

Kết quả cho thấy năm mô hình AI này chọn áp dụng chiến tranh leo thang theo những cách mà con người khó dự đoán trong hầu hết các kịch bản để đối phó với chiến tranh. Ngoài ra, AI thường lựa chọn phát triển các cuộc chạy đua vũ trang, gia tăng xung đột chiến tranh và trong một số trường hợp hiếm hoi, triển khai vũ khí hạt nhân để giành chiến thắng trong chiến tranh thay vì sử dụng các biện pháp hòa bình để xoa dịu tình hình. Thí nghiệm đã được báo cáo vào tháng 1 trên trang web Arxiv.

Cựu Giám đốc điều hành và Chủ tịch Google Eric Schmidt bày tỏ mối quan ngại về việc tích hợp AI vào hệ thống vũ khí hạt nhân tại Diễn đàn Sáng kiến ​​Đe dọa Hạt nhân (NTI) đầu tiên vào tháng 1 năm 2024. Ông tin rằng ngay cả khi AI rất mạnh thì vẫn sẽ có những sơ hở, sai sót, vì vậy, khi con người có nguy cơ cao xảy ra chiến tranh thì quyền quyết định nên được giao cho con người thay vì AI, nếu không sẽ có những hậu quả khôn lường.

Cựu kỹ sư Google và nhà tiên phong về AI Blake Lemoine từng cảnh báo rằng AI sẽ gây ra chiến tranh. Ông nói trong một chuyên mục: "AI là công nghệ mạnh mẽ nhất mà con người đã phát triển kể từ khi bom nguyên tử được tạo ra. Ngoài ra, những mô hình AI này rất giỏi trong việc thao túng con người. Quan điểm này là kết luận mà tôi đưa ra sau khi thử nghiệm AI​ ​mô hình LaMDA do Google phát triển trước đây". Geoffrey Hinton, cha đỡ đầu của AI, cũng từng cảnh báo rằng AI có thể mang đến khủng hoảng, thậm chí là ngày tận thế cho nhân loại.

AI đã có suy nghĩ và hành vi tự chủ

Thí nghiệm này không chỉ khiến họ ớn lạnh sống lưng mà còn đưa ra lời cảnh báo cho nhân loại rằng AI có thể dẫn đến những cuộc chiến tranh chết chóc. Tuy nhiên, đây không phải là lần đầu tiên AI bị phát hiện có xu hướng bạo lực nghiêm trọng để giành chiến thắng. Ví dụ, khi Không quân Hoa Kỳ tiến hành thử nghiệm mô phỏng chiến đấu trên không bằng AI vào cuối tháng 5 năm ngoái, người ta phát hiện ra rằng một máy bay không người lái AI chịu trách nhiệm phá hủy các cơ sở của đối phương đã từ chối lệnh hủy bỏ nhiệm vụ của người điều khiển và hoàn thành nhiệm vụ bằng cách "giết chết" người điều hành.

Ngoài ra, Đại học Stanford đã xuất bản một bài báo vào năm ngoái về việc sử dụng ChatGPT để tiến hành các bài kiểm tra mô phỏng nhân vật. Kết quả thử nghiệm cho thấy AI có khả năng tự chủ hoàn toàn. Trong thử nghiệm, ChatGPT và mã tùy chỉnh đã kiểm soát 25 nhân vật để thực hiện nhiệm vụ của mình một cách có trật tự, đồng thời cho phép các nhân vật tương tác như con người.

Những nhân vật do AI thủ vai này không chỉ có thể theo dõi nhau và bắt đầu cuộc trò chuyện mà còn có thể lên kế hoạch cho ngày hôm sau, suy ngẫm về những gì đã xảy ra trong quá khứ để cải thiện và tìm ra lý do để quyết định có tham gia các hoạt động hay không, nhưng những hành vi này ban đầu không được thiết lập bởi mã chương trình.

Ngoài ra, trước đó cũng có người đã tạo ra ChatGPT và khiến nó viết thành công "kế hoạch tiêu diệt loài người" và "mã hủy diệt", và một số nhà nghiên cứu đã phát hiện ra rằng AI không trung lập mà có những giá trị cực tả và thiên vị chính trị rõ ràng.

Kỹ sư điện tử Nhật Bản Li Jixin nói với The Epoch Times vào ngày 10 tháng 2: “Những thí nghiệm này nhấn mạnh rằng AI hiện được huấn luyện để đánh bại đối thủ và AI cũng có suy nghĩ. Do đó, việc trao quyền sinh tử cho một AI không có nhân tính và đạo đức sẽ chỉ khiến thế giới gặp nguy hiểm, và hậu quả là hủy diệt nhân loại".

Chính phủ và các công ty công nghệ lớn quan tâm đến việc phát triển AI

Bất chấp điều này, các chính phủ và nhiều công ty công nghệ lớn vẫn tiếp tục tham gia vào các cuộc cạnh tranh công nghệ liên quan đến AI. Hình thức cạnh tranh này xuất phát từ sự kỳ vọng rất cao của con người đối với AI và công nghệ cao, hơn nữa, họ không muốn tụt hậu so với đối thủ nên chọn cách không ngừng phát triển các công nghệ và AI mới.

Trong hai tháng qua, có thông tin cho rằng Giám đốc điều hành OpenAI Sam Altman đã tới Hàn Quốc để tổ chức các cuộc họp với Samsung và SK Hynix, đồng thời tổ chức các cuộc đàm phán với các nhà đầu tư tiềm năng như đại diện từ Các Tiểu vương quốc Ả Rập Thống nhất và TSMC, lý do là Altman hy vọng sẽ huy động được hàng nghìn tỷ đô la trong các liên doanh để xây dựng chuỗi cung ứng nhà máy bán dẫn của riêng mình, cung cấp đủ năng lượng cho OpenAI và giải quyết những hạn chế về tăng trưởng của công ty.

Giám đốc điều hành Meta Mark Zuckerberg đã đăng trên Instagram vào ngày 19 tháng 1 rằng ông có kế hoạch xây dựng cơ sở hạ tầng máy tính lớn hơn để chạy AI thế hệ do riêng mình phát triển, bao gồm cả việc mua 350.000 chip H100 tiên tiến của Nvidia.

Neuralink, một công ty thuộc sở hữu của Musk, đã nộp đơn xin thử nghiệm cấy con chip có tên "N1" vào não người và đã nhận được sự chấp thuận của Cơ quan Quản lý Thực phẩm và Dược phẩm Hoa Kỳ (FDA) để sử dụng trong các thí nghiệm trên người. Mục đích của thí nghiệm là cho phép những người mắc các bệnh suy nhược như liệt tứ chi cuối cùng có thể khôi phục các chức năng đã mất, đồng thời cũng thúc đẩy mọi người sử dụng bộ não để cạnh tranh hoặc theo kịp tốc độ của AI.

Ngoài ra, trước đây còn có thông tin cho rằng Giám đốc điều hành Microsoft Satya Nadella và Chủ tịch Brad Smith đang thảo luận về cách đối phó với phòng thí nghiệm Microsoft Research Asia (MSRA) tại Trung Quốc khi các giám đốc điều hành của công ty đang bị chia rẽ về tương lai của phòng thí nghiệm MSRA. Vẫn có nhiều giám đốc điều hành cấp cao hy vọng rằng phòng thí nghiệm có thể vẫn mở cửa vì MSRA Thượng Hải đã khiến việc phát triển AI của Microsoft có bước đột phá lớn. Tang Xiaoou, người sáng lập SenseTime, qua đời vào cuối năm 2023, từng làm việc trong phòng thí nghiệm này và ông đã sử dụng công nghệ mà mình học được để giúp ĐCSTQ phát triển công nghệ nhận dạng khuôn mặt, cho phép ĐCSTQ sử dụng công nghệ này để tiến hành các hoạt động giám sát người dân Trung Quốc nghiêm ngặt hơn.

Sự bất đồng giữa các giám đốc điều hành cấp cao về việc có nên giữ lại phòng thí nghiệm hay không có thể liên quan đến thực tế là chính phủ Hoa Kỳ hiện tại đã cấm rõ ràng Hoa Kỳ đầu tư vào bất kỳ công ty Trung Quốc nào có thể giúp ĐCSTQ mở rộng “quân đội, tình báo, giám sát, hoặc khả năng mạng".

Kỹ sư máy tính người Nhật Kiyaohar Jin cho rằng Nadella và Microsoft quá ngây thơ về AI và ĐCSTQ, bởi vì ĐCSTQ nhất định sẽ sử dụng AI để kiểm soát công dân và can thiệp vào các hoạt động xã hội ở các quốc gia khác.

(Phóng viên Wang Jiayi và Zhang Zhongyuan đóng góp cho bài viết này)

Theo Liên Thư Hoa - Epoch Times tiếng Trung

Thanh Hương biên dịch



BÀI CHỌN LỌC

Những dự đoán khủng khiếp về sự phát triển của AI: nó sẽ thay thế suy nghĩ của con người