Ilya Sutskever, cha đẻ OpenAI, thành lập công ty AI “siêu thông minh an toàn”

Sau gần một thập kỷ dẫn dắt nghiên cứu về siêu trí tuệ với tư cách là giám đốc khoa học của OpenAI, Ilya Sutskever đã rời đi vào tháng 5. Một tháng sau, ông thành lập công ty AI của riêng mình – Safe Superintelligence Inc.

“Chúng tôi đã tạo ra phòng thí nghiệm SSI đầu tiên trên thế giới, với một mục tiêu duy nhất: một siêu trí tuệ an toàn”, Sutskever viết trên X (trước đây là Twitter) vào thứ Tư. “Chúng tôi sẽ đạt được điều đó thông qua những đột phá mang tính cách mạng được tạo ra bởi một đội ngũ nhỏ gọn và tài năng.”

Cùng đồng hành với Sutskever trong dự án mới là Daniel Gross, cựu giám đốc AI của Apple, và Daniel Levy, một nhà nghiên cứu khác từng làm việc tại OpenAI. Công ty khởi nghiệp này có văn phòng tại Tel Aviv và Palo Alto, California.

Trước đây, Sutskever cùng Jan Leike – người cũng rời OpenAI vào tháng 5 và hiện đang làm việc tại Anthropic, một công ty AI khác được thành lập bởi các cựu nhân viên OpenAI – đã dẫn dắt nhóm Superalignment của OpenAI. Nhóm này tập trung vào việc kiểm soát các hệ thống AI và đảm bảo rằng AI tiên tiến sẽ không gây nguy hiểm cho nhân loại. Nhóm đã bị giải tán ngay sau khi cả hai nhà lãnh đạo rời đi.

Đúng như tên gọi, Safe Intelligence sẽ tập trung vào các nỗ lực an toàn tương tự như những gì nhóm cũ của Sutskever đã làm.

“SSI là sứ mệnh, là tên gọi và là toàn bộ lộ trình sản phẩm của chúng tôi, bởi vì đó là trọng tâm duy nhất của chúng tôi”, các nhà đồng sáng lập công ty viết trong một bức thư ngỏ. “Sự tập trung duy nhất này đồng nghĩa với việc không bị phân tâm bởi các công việc quản lý hay chu kỳ sản phẩm, và mô hình kinh doanh của chúng tôi đảm bảo rằng sự an toàn, bảo mật và tiến bộ đều không bị ảnh hưởng bởi áp lực thương mại ngắn hạn.”

Công ty cũng cam kết rằng “sự tập trung duy nhất” của họ sẽ ngăn chặn sự can thiệp của ban quản lý hoặc các chu kỳ sản phẩm cản trở công việc của họ. Nhiều thành viên của OpenAI, bao gồm cả thành viên sáng lập Andrej Karpathy, đã rời công ty trong những tháng gần đây. Tháng trước, một số cựu nhân viên đã ký một bức thư ngỏ bày tỏ lo ngại về “những rủi ro nghiêm trọng” tại OpenAI liên quan đến các vấn đề về giám sát và minh bạch.

Sutskever là một trong những thành viên hội đồng quản trị của OpenAI đã cố gắng lật đổ người đồng sáng lập kiêm CEO Sam Altman vào tháng 11, người sau đó đã nhanh chóng được phục chức. Các giám đốc đã chỉ trích cách Altman xử lý vấn đề an toàn AI và các cáo buộc về hành vi lạm dụng. Cựu thành viên hội đồng quản trị Helen Toner cho biết hành vi thao túng và dối trá của Altman đã tạo ra một văn hóa độc hại mà các giám đốc điều hành gọi là “lạm dụng độc hại.”