Sự ra mắt của Sora, nền tảng tạo video ngắn bằng AI của OpenAI, đã nhanh chóng tạo nên một làn sóng lớn trên internet. Được ví như “TikTok cho deepfake“, Sora cho phép người dùng tạo ra các video 10 giây về bất kỳ chủ đề nào, bao gồm cả những phiên bản do AI tạo ra của chính họ hoặc người khác, hoàn chỉnh với giọng nói. OpenAI gọi những phiên bản ảo này là “cameos”, nhưng giới phê bình lại coi chúng là một thảm họa tiềm ẩn về thông tin sai lệch. Trong bối cảnh một “làn sóng AI” khó lường đang đe dọa tràn ngập không gian mạng, OpenAI đang nỗ lực chứng minh cam kết của mình đối với các mối quan ngại của người dùng. Ban đầu, các tính năng kiểm soát cameo khá lỏng lẻo, chỉ cho phép lựa chọn “có” hoặc “không” với các nhóm như bạn bè chung, người được chấp thuận hoặc “mọi người”. Điều này đã dẫn đến nhiều tình huống khó xử, thậm chí là những video nhạo báng, điển hình là việc CEO OpenAI Sam Altman xuất hiện trong các clip giả mạo anh ta đang ăn trộm, đọc rap hay nướng Pikachu. Giờ đây, Sora đã có những cập nhật quan trọng, cho phép bạn chủ động hơn trong việc quyết định cách thức và địa điểm mà các phiên bản deepfake của mình xuất hiện trên ứng dụng, đánh dấu một bước tiến lớn hướng tới triết lý “người dùng là trên hết” trong kỷ nguyên AI.
Nắm quyền điều khiển bản sao AI của bạn

Những cập nhật mới nhất của Sora là một phần trong gói cải tiến rộng lớn hơn nhằm ổn định nền tảng và quản lý sự hỗn loạn trong nguồn cấp dữ liệu của nó. Bill Peebles, người đứng đầu nhóm Sora tại OpenAI, đã xác nhận rằng người dùng giờ đây có thể hạn chế cách các phiên bản do AI tạo ra của chính họ được sử dụng trong ứng dụng. Ví dụ, bạn có thể ngăn chặn bản thân AI của mình xuất hiện trong các video liên quan đến chính trị, cấm nó nói những từ ngữ nhất định, hoặc thậm chí – nếu bạn không thích mù tạt – ngăn nó xuất hiện ở bất cứ đâu gần loại gia vị này. Điều này mang lại một cấp độ kiểm soát chi tiết và cá nhân hóa chưa từng có cho hình ảnh số của bạn.
Thêm vào đó, Thomas Dimson, một thành viên khác của đội ngũ OpenAI, cho biết người dùng cũng có thể thêm các tùy chọn cho bản sao ảo của mình, chẳng hạn như yêu cầu chúng “đội mũ lưỡi trai in dòng chữ ‘#1 Ketchup Fan’ trong mọi video”. Những biện pháp bảo vệ này được chào đón nồng nhiệt, tuy nhiên, lịch sử của các bot AI như ChatGPT và Claude từng đưa ra lời khuyên về chất nổ, tội phạm mạng hay vũ khí sinh học cho thấy khả năng ai đó sẽ tìm cách lách luật vẫn còn đó. Thực tế, người dùng đã từng vượt qua một trong những tính năng an toàn khác của Sora là watermark khá yếu ớt.
Ông Peebles cho biết OpenAI sẽ tiếp tục “nâng cao các hạn chế trở nên mạnh mẽ hơn” và “sẽ bổ sung những cách thức mới để bạn duy trì quyền kiểm soát” trong tương lai. Điều này khẳng định cam kết của công ty trong việc liên tục cải thiện bảo mật và trao quyền cho người dùng, nhằm đối phó với những thách thức phức tạp của công nghệ deepfake và thông tin sai lệch.