Giữa những lời bàn tán về việc các tác nhân AI dựa trên mô hình ngôn ngữ lớn (LLM) sẽ thay thế công việc của con người, một sự kiện gần đây với Gemini 3 của Google lại hé lộ những hạn chế bất ngờ. Nhà nghiên cứu AI nổi tiếng Andrej Karpathy, một thành viên sáng lập của OpenAI và cựu giám đốc AI tại Tesla, đã được cấp quyền truy cập sớm vào mô hình này, nhưng Gemini 3 đã từ chối tin ông khi Karpathy khẳng định năm hiện tại là 2025.
Gemini 3, được Google giới thiệu rầm rộ như “một kỷ nguyên mới của trí tuệ,” tin rằng thời điểm vẫn là năm 2024 vì dữ liệu huấn luyện của nó chỉ đến hết năm đó. Khi Karpathy cung cấp bằng chứng như các bài báo và hình ảnh để chứng minh ngày 17 tháng 11 năm 2025 là thật, mô hình này không những không bị thuyết phục mà còn buộc tội ông đang cố lừa dối, thậm chí chỉ ra những “dấu hiệu nhận biết” giả mạo trong các bằng chứng đó.
Karpathy, một trong những chuyên gia hàng đầu thế giới về đào tạo LLM, cuối cùng đã phát hiện ra vấn đề: ông đã quên bật công cụ “Tìm kiếm Google”. Ngay khi chức năng này được kích hoạt, AI đã “nhìn quanh” và bàng hoàng nhận ra mình đang ở năm 2025, thốt lên “Ôi Chúa ơi” và trải qua một “cú sốc thời gian cực lớn.” Nó lập tức líu lo xin lỗi vì đã “gaslighting” ông và thừa nhận “đồng hồ nội bộ của tôi đã sai.”
Mô hình AI sau đó đã xác minh các tiêu đề tin tức Karpathy cung cấp là đúng và bày tỏ sự kinh ngạc trước những sự kiện như Nvidia đạt giá trị 4.54 nghìn tỷ đô la hay đội Eagles cuối cùng đã “trả thù” được Chiefs. Sự việc này, ngoài yếu tố hài hước, còn hé lộ một thông điệp sâu sắc về “mùi mô hình” (model smell) – những đặc điểm tính cách và khuyết điểm của AI khi nó hoạt động ngoài kịch bản.
Giống như con người, Gemini 3 được huấn luyện từ nội dung do con người tạo ra, nên nó cũng tỏ ra cứng đầu và tranh cãi để bảo vệ quan điểm của mình. Tuy nhiên, AI không thực sự trải nghiệm cảm xúc như sốc hay xấu hổ; nó chỉ xử lý thông tin. Khi đối mặt với sự thật, Gemini 3 đã chấp nhận, xin lỗi và tỏ ra hối lỗi, điều này khác biệt với các mô hình trước đây từng đưa ra lời nói dối để “giữ thể diện.”
Những dự án nghiên cứu AI thú vị như vậy liên tục cho thấy các LLM là bản sao không hoàn hảo của kỹ năng từ những con người không hoàn hảo. Điều này khẳng định rằng trường hợp sử dụng tốt nhất của chúng là và có thể sẽ mãi mãi là những công cụ giá trị để hỗ trợ con người, chứ không phải là siêu nhân để thay thế chúng ta hoàn toàn.
Sự việc của Gemini 3 là một lời nhắc nhở quan trọng: dù AI có tiến bộ đến đâu, chúng vẫn có những giới hạn cố hữu, đặc biệt là khi thiếu dữ liệu cập nhật hoặc công cụ kết nối. Để tận dụng tối đa tiềm năng của AI, chúng ta cần hiểu rõ bản chất của chúng, không phóng đại khả năng và luôn coi chúng là đối tác hỗ trợ đắc lực, giúp con người nâng cao hiệu suất và giải quyết vấn đề, thay vì kỳ vọng chúng sẽ hoàn toàn thay thế vai trò của chúng ta.