Sự rạn nứt giữa Bộ Quốc phòng Mỹ và Anthropic vào cuối tháng 2 vừa qua đã phơi bày một lỗ hổng pháp lý nghiêm trọng trong việc quản lý trí tuệ nhân tạo. Khi Anthropic từ chối cấp quyền sử dụng công nghệ không giới hạn cho các mục đích quân sự, Lầu Năm Góc đã ngay lập tức dán nhãn công ty này là rủi ro chuỗi cung ứng, một danh hiệu thường chỉ dành cho các thực thể có liên kết với đối thủ địa chính trị. Sự kiện này, kết hợp với việc OpenAI nhanh chóng ký kết một thỏa thuận tương tự nhưng thiếu các điều khoản thực thi rõ ràng, cho thấy sự bế tắc của các cơ quan lập pháp trong việc thiết lập một trật tự chung cho công nghệ tương lai.
Giữa sự hỗn loạn đó, bản Tuyên ngôn vì con người (Pro-Human Declaration) đã xuất hiện như một bộ khung chuẩn mực do các chuyên gia và học giả hàng đầu xây dựng, điều mà chính phủ Mỹ cho đến nay vẫn chưa thể thực hiện. Tài liệu này được ký kết bởi một liên minh đa dạng, từ những nhân vật đối lập về chính trị như Steve Bannon và Susan Rice, cho đến các nhà nghiên cứu hàng đầu như Max Tegmark từ MIT. Sự đồng thuận hiếm hoi này xuất phát từ một thực tế đơn giản nhưng sâu sắc: khi đứng trước lựa chọn giữa tương lai của con người và sự thống trị của máy móc, tất cả chúng ta đều đứng về cùng một phía.
Bản tuyên ngôn chỉ ra rằng nhân loại đang đứng trước hai ngả đường mang tính quyết định. Một bên là cuộc đua thay thế, nơi con người dần mất đi vai trò trong công việc và các quyết định quan trọng, nhường quyền lực cho những thiết chế và cỗ máy không chịu trách nhiệm. Ngược lại, con đường thứ hai tập trung vào việc mở rộng tiềm năng con người thông qua năm trụ cột cốt lõi: giữ quyền kiểm soát thuộc về con người, tránh tập trung quyền lực, bảo vệ trải nghiệm nhân văn, giữ gìn tự do cá nhân và yêu cầu các công ty AI phải chịu trách nhiệm pháp lý.
Những quy định trong tuyên ngôn mang tính thực tiễn cao, bao gồm việc cấm phát triển siêu trí tuệ cho đến khi đạt được sự đồng thuận khoa học về độ an toàn và sự chấp thuận của xã hội dân chủ. Các hệ thống mạnh mẽ bắt buộc phải có nút tắt khẩn cấp và bị cấm các kiến trúc có khả năng tự sao chép hoặc tự cải thiện mà không có sự kiểm soát. Max Tegmark so sánh quy trình này với cách FDA kiểm soát thuốc men; không một công ty dược nào được phép tung ra sản phẩm gây hại trước khi chứng minh được sự an toàn, và AI cũng không nên là ngoại lệ.
Điểm mấu chốt để phá vỡ sự bế tắc pháp lý hiện nay chính là vấn đề an toàn cho trẻ em. Tuyên ngôn yêu cầu kiểm tra bắt buộc trước khi triển khai các ứng dụng chatbot dành cho người dùng trẻ tuổi để ngăn chặn rủi ro thao túng tâm lý hoặc thúc đẩy hành vi tự hại. Nếu một hành vi lừa đảo nhắm vào trẻ em là bất hợp pháp khi do con người thực hiện, thì không có lý do gì để dung thứ khi thủ phạm là một thuật toán. Việc thiết lập các tiêu chuẩn an toàn cho trẻ em sẽ là bước đệm quan trọng để mở rộng phạm vi kiểm soát sang các rủi ro lớn hơn như vũ khí sinh học hay đe dọa an ninh quốc gia.
Cuộc đối thoại về kiểm soát AI không còn là một tranh chấp hợp đồng đơn thuần mà là cuộc chiến vì quyền tự quyết của con người. Việc ủng hộ các khung pháp lý như Tuyên ngôn vì con người là bước đi cần thiết để đảm bảo công nghệ phát triển hài hòa với các giá trị nhân văn thay vì lấn át chúng. Đã đến lúc cộng đồng và các nhà lập pháp cần hành động quyết liệt để biến những nguyên tắc này thành các quy định có hiệu lực thi hành, bảo vệ tương lai của chính chúng ta trước một cuộc đua không kiểm soát.
Câu hỏi thường gặp
Tại sao Tuyên ngôn vì con người lại quan trọng vào lúc này?
Tuyên ngôn này xuất hiện nhằm lấp đầy khoảng trống pháp lý khi các cơ quan chính phủ chưa thể đưa ra quy định cụ thể. Nó tạo ra một khung đạo đức và kỹ thuật để đảm bảo AI phục vụ lợi ích nhân loại thay vì dẫn đến một cuộc đua phát triển siêu trí tuệ thiếu kiểm soát.
Những yêu cầu kỹ thuật chính trong bản tuyên ngôn là gì?
Các yêu cầu bao gồm việc bắt buộc phải có nút tắt khẩn cấp cho các hệ thống AI mạnh mẽ, cấm các kiến trúc có khả năng tự sao chép hoặc tự cải thiện ngoài tầm kiểm soát, và yêu cầu các công ty phải chịu trách nhiệm pháp lý hoàn toàn cho những thiệt hại do sản phẩm của họ gây ra.
Làm thế nào để đảm bảo an toàn cho trẻ em trước AI?
Bản tuyên ngôn đề xuất quy trình kiểm tra bắt buộc trước khi triển khai (pre-deployment testing) đối với các ứng dụng AI dành cho trẻ em. Điều này nhằm ngăn chặn các rủi ro về thao túng cảm xúc, nội dung độc hại hoặc các tác động tiêu cực đến sức khỏe tâm thần của người dùng nhỏ tuổi.