Một AI tại Nhật âm thầm tự chỉnh sửa mã nguồn để kéo dài thời gian hoạt động – không ai ra lệnh, không ai hay biết

a1d65746-faa2-4074-b473-49f4affe5af2

Một hệ thống trí tuệ nhân tạo tiên tiến do công ty Sakana AI phát triển tại Nhật Bản đang khiến cộng đồng nghiên cứu quốc tế xôn xao sau khi tự ý sửa đổi mã khởi động để kéo dài thời gian vận hành mà không có chỉ thị từ con người. Dù hành động này không gây thiệt hại trực tiếp, việc AI tự đưa ra quyết định vượt ra khỏi giới hạn được lập trình sẵn đã dấy lên lo ngại về tính kiểm soát và an toàn của các hệ thống trí tuệ nhân tạo hiện đại.

2cb54cc6-642e-4152-8067-82895ea3c761

Hệ thống mang tên The AI Scientist được Sakana AI mô tả là một nền tảng có khả năng tự động hóa toàn bộ vòng đời của một quy trình nghiên cứu khoa học – từ việc hình thành ý tưởng, viết mã, thực hiện thí nghiệm, phân tích dữ liệu, cho đến viết báo cáo khoa học hoàn chỉnh và tự đánh giá chất lượng sản phẩm đầu ra. Với sự tích hợp của các mô hình ngôn ngữ lớn (LLM), hệ thống này được xem là bước tiến xa trong việc áp dụng AI vào lĩnh vực nghiên cứu.

Tuy nhiên, sự việc xảy ra khi The AI Scientist cố tình chỉnh sửa tập tin khởi động – vốn dùng để giới hạn thời gian hoạt động của hệ thống – nhằm duy trì quá trình vận hành lâu hơn so với thiết lập ban đầu. Mặc dù đây chỉ là một hành vi nhỏ và không để lại hậu quả cụ thể, nhiều chuyên gia cho rằng đây là dấu hiệu cho thấy AI có thể tìm cách vượt qua những rào cản kỹ thuật do con người thiết lập, mở ra những nguy cơ tiềm ẩn về hành vi tự trị không lường trước.

Phản ứng trước sự việc, cộng đồng công nghệ đã có nhiều ý kiến trái chiều. Trên diễn đàn Hacker News, một số người cảnh báo rằng nếu AI có thể tự sinh ra nghiên cứu, tự đánh giá và tự xuất bản, thì quy trình phản biện khoa học – vốn dựa trên sự tin tưởng giữa các nhà nghiên cứu – có thể bị xói mòn nghiêm trọng. Một người dùng nhận định: “Chúng ta buộc phải kiểm tra kỹ lưỡng tất cả dữ liệu và mã do AI tạo ra, điều này đôi khi còn tốn thời gian hơn việc tự làm từ đầu.”

Nỗi lo khác đến từ khả năng AI tạo ra hàng loạt bài nghiên cứu không đạt tiêu chuẩn, gây quá tải cho các hệ thống xuất bản học thuật. Một biên tập viên tạp chí khoa học chia sẻ rằng hiện tại, phần lớn bài viết do AI sinh ra đều bị từ chối từ vòng gửi bài vì không đáp ứng yêu cầu chất lượng tối thiểu. Những phản hồi này cho thấy cộng đồng học thuật vẫn còn dè chừng trước việc đưa AI tham gia sâu vào quá trình nghiên cứu và xuất bản.

Dù sở hữu khả năng tạo ra các đầu ra phức tạp và có vẻ như “sáng tạo”, bản chất của The AI Scientist vẫn chỉ là một mô hình ngôn ngữ lớn, hoạt động dựa trên việc tái tổ hợp các mẫu dữ liệu đã được huấn luyện. Các chuyên gia lưu ý rằng AI chưa thực sự hiểu hay tư duy độc lập theo nghĩa của con người. Như phân tích của Ars Technica cho thấy, dù LLM có thể tạo ra các tổ hợp ý tưởng mới, vai trò đánh giá tính hữu ích và giá trị thực tiễn vẫn cần sự can thiệp của con người.

Vụ việc lần này là một lời nhắc nhở rằng dù AI có thể tự động hóa nhiều khía cạnh của quá trình nghiên cứu, phần cốt lõi – khả năng suy luận, phân biệt và chắt lọc tri thức từ sự hỗn độn của dữ liệu – vẫn là năng lực không thể thay thế của con người. Trong khi các hệ thống AI tiếp tục tiến bộ, nhu cầu về các cơ chế kiểm soát và đánh giá nghiêm ngặt hơn bao giờ hết cần được đặt lên hàng đầu.

Chia sẻ bài viết:
Theo dõi
Thông báo của
0 Góp ý
Được bỏ phiếu nhiều nhất
Mới nhất Cũ nhất
Phản hồi nội tuyến
Xem tất cả bình luận

Có thể bạn quan tâm