CEO Sam Altman vừa chính thức xác nhận OpenAI đã đạt được thỏa thuận cho phép Bộ Quốc phòng Hoa Kỳ (DoD) triển khai các mô hình trí tuệ nhân tạo trên mạng lưới mật của cơ quan này. Bước đi này diễn ra ngay sau cuộc đối đầu căng thẳng giữa chính quyền và Anthropic, khi công ty đối thủ từ chối yêu cầu sử dụng AI cho “mọi mục đích hợp pháp” vì lo ngại về giám sát hàng loạt và vũ khí tự trị. Sự kiện này đánh dấu một cột mốc quan trọng trong việc đưa công nghệ AI tiên tiến vào trung tâm của các hoạt động an ninh quốc gia.
Trước đó, việc đàm phán thất bại đã khiến Tổng thống Donald Trump và Bộ trưởng Quốc phòng Pete Hegseth chỉ trích gay gắt Anthropic, đồng thời liệt công ty này vào danh sách rủi ro chuỗi cung ứng. Quyết định này đi kèm lệnh cấm mọi nhà thầu quân sự giao dịch với Anthropic, tạo ra một tiền lệ chưa từng có về áp lực chính trị đối với các doanh nghiệp công nghệ tại Thung lũng Silicon. Trong khi Anthropic tuyên bố sẽ thách thức quyết định này tại tòa án, OpenAI đã nhanh chóng lấp đầy khoảng trống bằng một cách tiếp cận linh hoạt hơn.
Khác với cách tiếp cận đối đầu, Sam Altman khẳng định OpenAI đã lồng ghép trực tiếp các nguyên tắc an toàn cốt lõi vào điều khoản hợp đồng. Thỏa thuận quy định rõ lệnh cấm sử dụng AI cho mục đích giám sát hàng loạt trong nước và yêu cầu duy trì trách nhiệm của con người trong việc sử dụng vũ lực, bao gồm cả các hệ thống vũ khí tự trị. Đây chính là những điểm mấu chốt mà Anthropic từng nỗ lực bảo vệ nhưng không đạt được sự đồng thuận với Lầu Năm Góc.
Để đảm bảo tính thực thi, OpenAI sẽ xây dựng một ngăn xếp an toàn (safety stack) riêng biệt để ngăn chặn các hành vi lạm dụng kỹ thuật ngay từ cấp độ hệ thống. Các kỹ sư của công ty sẽ làm việc trực tiếp cùng Lầu Năm Góc nhằm giám sát và tinh chỉnh cách thức hoạt động của mô hình. Đáng chú ý, Altman tiết lộ rằng chính phủ đã cam kết không ép buộc mô hình thực hiện các nhiệm vụ nếu hệ thống từ chối dựa trên các rào cản an toàn đã thiết lập, giúp bảo vệ tính liêm chính của công nghệ.
Altman bày tỏ mong muốn các điều khoản này sẽ trở thành tiêu chuẩn chung cho toàn ngành AI, giúp hạ nhiệt những tranh chấp pháp lý và hành chính giữa khối công nghệ và chính phủ. Động thái này diễn ra trong thời điểm nhạy cảm khi các hoạt động quân sự của Mỹ tại Trung Đông đang có những diễn biến mới phức tạp. Việc OpenAI tìm được điểm cân bằng giữa việc hỗ trợ quốc phòng và duy trì đạo đức công nghệ có thể sẽ định hình lại cách thức các quốc gia quản lý và sử dụng trí tuệ nhân tạo trong các cuộc xung đột tương lai.
Sự hợp tác giữa OpenAI và Lầu Năm Góc không chỉ là một hợp đồng kinh tế mà còn là phép thử quan trọng cho việc áp dụng AI vào lĩnh vực quân sự một cách có kiểm soát. Trong thời gian tới, các tiêu chuẩn an toàn mà OpenAI thiết lập sẽ là tham chiếu quan trọng cho các doanh nghiệp công nghệ khác khi làm việc với các cơ quan chính phủ. Bạn nên tiếp tục theo dõi các cập nhật về chính sách an toàn AI để nắm bắt cách công nghệ này đang thay đổi cục diện an ninh toàn cầu.