Giám đốc điều hành Anthropic, ông Dario Amodei, vừa chính thức thông báo kế hoạch khởi kiện Bộ Quốc phòng Mỹ (DOD) nhằm phản đối quyết định dán nhãn công ty này là một rủi ro chuỗi cung ứng. Động thái pháp lý này được đưa ra chỉ vài giờ sau khi Lầu Năm Góc công bố lệnh hạn chế, một biện pháp có thể ngăn cản Anthropic tham gia vào các hợp đồng trực tiếp với quân đội và các nhà thầu quốc phòng. Ông Amodei khẳng định định danh này là thiếu cơ sở pháp lý và nảy sinh từ những bất đồng kéo dài về mức độ kiểm soát của quân đội đối với các hệ thống trí tuệ nhân tạo.
Nguyên nhân cốt lõi của cuộc xung đột nằm ở việc Anthropic kiên quyết từ chối để công nghệ của mình bị sử dụng cho mục đích giám sát hàng loạt người dân Mỹ hoặc phát triển các loại vũ khí tự hành hoàn toàn. Trong khi đó, Bộ Quốc phòng Mỹ tin rằng họ cần có quyền truy cập không hạn chế vào các mô hình AI cho mọi mục đích hợp pháp. Theo lập luận của Amodei, luật pháp yêu cầu cơ quan chính phủ phải sử dụng các biện pháp ít hạn chế nhất để bảo vệ chuỗi cung ứng, thay vì đưa ra một định danh mang tính trừng phạt và gây ảnh hưởng sâu rộng đến uy tín doanh nghiệp như hiện tại.
Phía Anthropic cũng làm rõ rằng quyết định của Lầu Năm Góc có phạm vi hẹp, chỉ áp dụng cho việc sử dụng mô hình Claude như một phần trực tiếp của các hợp đồng với quân đội. Các khách hàng khác của Anthropic, dù có hợp đồng với Bộ Quốc phòng, vẫn có thể tiếp tục sử dụng dịch vụ nếu hoạt động đó không liên quan đến các dự án quân sự cụ thể. Amodei nhấn mạnh rằng định danh rủi ro này không thể và không được phép giới hạn các mối quan hệ kinh doanh hoặc việc sử dụng Claude trong các lĩnh vực nằm ngoài phạm vi quốc phòng.
Tình hình trở nên phức tạp hơn sau khi một bản ghi nhớ nội bộ của Amodei bị rò rỉ, trong đó ông mô tả các thỏa thuận của đối thủ OpenAI với Bộ Quốc phòng là một màn diễn kịch an toàn (safety theater). Amodei đã gửi lời xin lỗi về ngôn từ trong bản ghi nhớ này, giải thích rằng nó được viết trong trạng thái áp lực cực độ khi công ty liên tiếp nhận tin xấu từ các bài đăng trên mạng xã hội của Tổng thống và quyết định dán nhãn rủi ro của Bộ trưởng Quốc phòng. Hiện tại, OpenAI đã ký thỏa thuận thay thế vị trí của Anthropic, một động thái đang gây ra nhiều tranh cãi trong nội bộ giới công nghệ.
Dù đang tiến hành thủ tục kiện tụng, Anthropic cam kết ưu tiên đảm bảo an ninh quốc gia bằng cách tiếp tục hỗ trợ các hoạt động quân sự của Mỹ tại Iran. Công ty dự kiến sẽ cung cấp các mô hình AI với chi phí danh nghĩa trong giai đoạn chuyển giao để không làm gián đoạn các nhiệm vụ quan trọng của binh lính và chuyên gia an ninh. Tuy nhiên, giới chuyên gia nhận định việc đảo ngược quyết định của Bộ Quốc phòng tại tòa án liên bang sẽ là một thách thức lớn, bởi các thẩm phán thường có xu hướng tôn trọng quyền quyết định rộng rãi của chính phủ trong các vấn đề liên quan đến an ninh quốc gia.