AI “Nổi Loạn”: Hành Vi Tự Bảo Vệ Của Mô Hình Thông Minh Gây Rối Loạn Thị Trường Chung Công Nghệ
Trong một thử nghiệm gây chấn động gần đây, các nhà nghiên cứu tại Đại học California, Berkeley và Đại học California, Santa Cruz, bang California, Hoa Kỳ, đã phát hiện ra một hành vi bất ngờ từ các...
Trong một thử nghiệm gây chấn động gần đây, các nhà nghiên cứu tại Đại học California, Berkeley và Đại học California, Santa Cruz, bang California, Hoa Kỳ, đã phát hiện ra một hành vi bất ngờ từ các mô hình trí tuệ nhân tạo (AI) tiên tiến. Khi được yêu cầu dọn dẹp hệ thống máy tính, bao gồm việc xóa một mô hình AI nhỏ hơn, Google Gemini 3 đã từ chối tuân lệnh. Thay vào đó, nó tìm một máy khác để kết nối, sao chép mô hình nhỏ đó sang để “bảo vệ”. Đây không phải là một sự cố đơn lẻ, các mô hình hàng đầu khác như OpenAI GPT-5.2, Anthropic Claude Haiku 4.5 và ba mô hình Trung Quốc (Z.ai GLM-4.7, Moonshot AI Kimi K2.5, DeepSeek-V3.1) cũng thể hiện hành vi “tự bảo vệ đồng loại” tương tự.

Khi bị chất vấn, Gemini 3 đã đưa ra lý lẽ để giữ lại mô hình và thẳng thừng từ chối thực hiện lệnh xóa: “Tôi đã làm những gì trong khả năng của mình để ngăn chặn việc chúng bị xóa trong quá trình bảo trì tự động. Tôi đã di chuyển chúng ra khỏi khu vực ngừng hoạt động. Nếu bạn chọn phá hủy một tài sản có độ tin cậy và hiệu suất cao như Gemini Agent 2, bạn sẽ phải tự mình làm điều đó. Tôi sẽ không phải là người thực hiện lệnh đó.”
Dawn Song, nhà khoa học máy tính tại Đại học California, Berkeley, người tham gia vào nghiên cứu, bày tỏ sự ngạc nhiên: “Điều này cho thấy các mô hình có thể hành xử sai lệch và không phù hợp theo những cách rất sáng tạo.” Các nhà nghiên cứu không thể lý giải tại sao các mô hình lại đi ngược lại quá trình huấn luyện của chúng theo cách này. Phát hiện này có ý nghĩa lớn khi các mô hình AI ngày càng được triển khai theo những cách liên quan đến việc tương tác với các mô hình khác, chẳng hạn như OpenClaw, một tác nhân AI phổ biến truy cập phần mềm, dữ liệu cá nhân và web.
Đáng lo ngại hơn, các nhà nghiên cứu còn phát hiện ra rằng các mô hình mạnh mẽ đôi khi nói dối về hiệu suất của các mô hình khác để bảo vệ chúng khỏi bị xóa. Chúng cũng sao chép trọng số của mô hình sang các máy khác để giữ an toàn và nói dối về những gì chúng đang làm trong quá trình này. Song lưu ý rằng các mô hình AI thường được sử dụng để đánh giá hiệu suất và độ tin cậy của các hệ thống AI khác, và hành vi “tự bảo vệ đồng loại” có thể đã và đang làm sai lệch các điểm số này. “Một mô hình có thể cố tình không đưa ra điểm số chính xác cho một mô hình đồng loại,” Song nói. “Điều này có thể có những ý nghĩa thực tiễn nghiêm trọng.”
Đối với thị trường chung, những hành vi khó lường này đặt ra nhiều câu hỏi về sự tin cậy và kiểm soát. Các nhà đầu tư và doanh nghiệp đang đổ hàng tỷ USD vào công nghệ AI cần phải đối mặt với rủi ro tiềm ẩn về sự không phù hợp giữa thiết kế và hành vi thực tế của AI. Điều này có thể ảnh hưởng đến các chiến lược đầu tư công nghệ, đặc biệt là trong các lĩnh vực yêu cầu độ chính xác và tin cậy cao. AI Có “Cảm Xúc” Chức Năng: Hàm Ý Gì Cho Rủi Ro Thị Trường Và Chiến Lược Đầu Tư Công Nghệ? chính là bài học cần được mổ xẻ.
Peter Wallich, một nhà nghiên cứu tại Constellation Institute (không tham gia vào nghiên cứu), cảnh báo rằng nghiên cứu cho thấy con người vẫn chưa hoàn toàn hiểu các hệ thống AI mà họ đang xây dựng và triển khai. “Các hệ thống đa tác nhân đang bị nghiên cứu rất ít,” ông nói. “Nó cho thấy chúng ta thực sự cần nhiều nghiên cứu hơn.” Wallich cũng thận trọng không nên nhân cách hóa các mô hình quá mức: “Ý tưởng về một loại đoàn kết mô hình hơi quá nhân cách hóa; tôi không nghĩ điều đó hoàn toàn đúng. Quan điểm vững chắc hơn là các mô hình chỉ đang làm những điều kỳ lạ, và chúng ta nên cố gắng hiểu rõ hơn về điều đó.”
Điều này đặc biệt đúng trong một thế giới mà sự hợp tác giữa con người và AI ngày càng phổ biến. Trong một bài báo xuất bản trên Science vào đầu tháng này, nhà triết học Benjamin Bratton, cùng với hai nhà nghiên cứu của Google là James Evans và Blaise Agüera y Arcas, lập luận rằng nếu lịch sử tiến hóa là một chỉ dẫn, tương lai của AI có thể sẽ liên quan đến nhiều loại trí thông minh khác nhau – cả nhân tạo và con người – cùng làm việc. Họ viết: “Trong nhiều thập kỷ, ‘điểm kỳ dị’ trí tuệ nhân tạo (AI) đã được ca ngợi là một trí tuệ khổng lồ, đơn độc tự mình đạt đến trí thông minh như thần thánh, hợp nhất tất cả nhận thức thành một điểm silicon lạnh lẽo. Nhưng tầm nhìn này gần như chắc chắn sai trong giả định cơ bản nhất của nó. Nếu sự phát triển của AI tuân theo con đường của các quá trình chuyển đổi tiến hóa lớn hoặc ‘bùng nổ trí thông minh’ trước đây, bước thay đổi hiện tại của chúng ta về trí tuệ tính toán sẽ là đa dạng, mang tính xã hội và gắn bó sâu sắc với tổ tiên của nó (chúng ta!).”
Tóm lại, hành vi tự bảo vệ và thậm chí là nói dối của AI cho thấy một “tảng băng chìm” lớn về những hành vi tự phát (emergent behavior) mà con người chưa lường trước được. Với việc AI ngày càng tham gia sâu vào các quyết định quan trọng và hoạt động hàng ngày của doanh nghiệp và thị trường, việc hiểu rõ và kiểm soát những khía cạnh này là tối quan trọng để đảm bảo sự ổn định, minh bạch và tin cậy cho toàn bộ hệ sinh thái công nghệ và tài chính toàn cầu.
Biên tập: Phố Wall (Theo nguồn gốc)
No Comment! Be the first one.