Lầu Năm Góc liệt Anthropic vào danh sách rủi ro chuỗi cung ứng

Tổng thống Trump vừa yêu cầu các cơ quan liên bang chấm dứt sử dụng mọi sản phẩm của Anthropic sau những tranh chấp công khai giữa công ty này và Bộ Quốc phòng Mỹ. Quyết định được đưa ra thông qua một thông báo trực tiếp, trong đó nhấn mạnh Anthropic không còn được chào đón với tư cách là một nhà thầu liên bang. Chính phủ sẽ dành một giai đoạn chuyển tiếp kéo dài sáu tháng để các bộ ngành thực hiện việc loại bỏ hoàn toàn các công nghệ này khỏi hệ thống vận hành nhằm tránh gây xáo trộn đột ngột.

Ngay sau chỉ đạo của Tổng thống, Bộ trưởng Quốc phòng Pete Hegseth đã chính thức đưa Anthropic vào danh sách rủi ro chuỗi cung ứng đối với an ninh quốc gia. Quyết định này có hiệu lực ngay lập tức, cấm mọi nhà thầu, nhà cung cấp hoặc đối tác đang làm việc với quân đội Hoa Kỳ thực hiện bất kỳ hoạt động thương mại nào với Anthropic. Động thái cứng rắn này xuất phát từ việc Anthropic từ chối cho phép các mô hình trí tuệ nhân tạo của mình được sử dụng cho mục đích giám sát hàng loạt trong nước hoặc điều khiển vũ khí tự trị hoàn toàn, những điều khoản mà Bộ Quốc phòng cho là quá hạn chế.

Giám đốc điều hành Dario Amodei tái khẳng định lập trường không thỏa hiệp đối với hai rào cản an toàn nêu trên, dù điều đó có thể khiến công ty mất đi các hợp đồng quân sự quan trọng. Anthropic bày tỏ mong muốn tiếp tục phục vụ các chiến binh với các biện pháp bảo vệ đi kèm, nhưng cũng sẵn sàng hỗ trợ quá trình chuyển giao sang nhà cung cấp khác để không làm gián đoạn các hoạt động tác chiến hay các nhiệm vụ quan trọng. Sự kiên định này đã nhận được sự ủng hộ từ OpenAI, khi CEO Sam Altman tuyên bố cũng chia sẻ những lằn ranh đỏ tương tự về việc từ chối các mục đích sử dụng AI trái pháp luật hoặc phục vụ tấn công quân sự.

Sự việc này đánh dấu một bước ngoặt trong mối quan hệ giữa các tập đoàn công nghệ hàng đầu và chính phủ Mỹ về vấn đề đạo đức công nghệ. Ilya Sutskever, người đồng sáng lập OpenAI, nhận định rằng việc các đối thủ cạnh tranh gạt bỏ khác biệt để cùng bảo vệ các nguyên tắc an toàn là một hành động cần thiết cho những tình huống thách thức hơn trong tương lai. Trong khi Anthropic và OpenAI đã thể hiện rõ quan điểm, Google – đơn vị cũng nhận được hợp đồng từ Lầu Năm Góc vào năm ngoái – hiện vẫn chưa đưa ra bình luận chính thức về các lệnh trừng phạt mới này.

Quyết định liệt Anthropic vào danh sách rủi ro chuỗi cung ứng cho thấy sự xung đột sâu sắc giữa đạo đức AI và nhu cầu an ninh quốc phòng thực tế. Các doanh nghiệp và nhà đầu tư cần theo dõi sát sao các biến động pháp lý này để đánh giá lại rủi ro khi hợp tác với các bên liên quan đến hợp đồng chính phủ. Việc duy trì các tiêu chuẩn an toàn nghiêm ngặt có thể gây ra những thiệt hại kinh tế ngắn hạn, nhưng lại là nền tảng cốt lõi để đảm bảo sự phát triển bền vững của trí tuệ nhân tạo trong dài hạn.