Một sản phẩm của BEACON MEDIA
Dữ liệu
Chuyên mục
Media
Báo cáo đặc biệt
Một sản phẩm của BEACON MEDIA
Khám phá nhiều hơn với tài khoản
Đăng nhập để lưu trữ và dễ dàng truy cập những bài viết bạn yêu thích trên Bloomberg Businessweek Việt Nam.
BBWV - Trước mối đe dọa bị "đánh cắp" trí tuệ từ các đối thủ tại Trung Quốc, ba ông lớn AI gồm OpenAI, Anthropic và Google đã quyết định bắt tay cùng Microsoft để bảo vệ những mô hình ngôn ngữ ngàn tỉ USD của mình.
Chatbot Deepseek hiển thị trên màn hình điện thoại ở Thượng Hải. Ảnh: Raul Ariano/Bloomberg
Tác giả: Shirin Ghaffary và Maggie Eastland
07 tháng 04, 2026 lúc 12:15 PM
Tóm tắt bài viết bởi
Ba đối thủ cạnh tranh trực tiếp là OpenAI, Anthropic PBC và Google thuộc Alphabet Inc phối hợp với nhau nhằm ngăn chặn các đối thủ Trung Quốc khai thác kết quả từ những mô hình trí tuệ nhân tạo tiên tiến nhất của Mỹ để giành lợi thế trong cuộc đua AI toàn cầu.
Các công ty này đang chia sẻ thông tin thông qua Frontier Model Forum, một tổ chức phi lợi nhuận do ba hãng công nghệ trên cùng Microsoft thành lập vào năm 2023, nhằm phát hiện các nỗ lực chưng cất đối nghịch (adversarial distillation) vi phạm điều khoản sử dụng dịch vụ. theo những người nắm rõ vấn đề. (adversarial distillation: hiểu đơn giản là dùng chính mô hình AI của đối thủ để tạo ra AI mới có tính cạnh tranh)
Sự hợp tác hiếm hoi này cho thấy mức độ nghiêm trọng mà các công ty AI Mỹ đã nêu ra, rằng một số người dùng, đặc biệt tại Trung Quốc, đang tạo ra các phiên bản sao chép sản phẩm của họ với giá rẻ hơn, từ đó hút khách hàng và đồng thời đặt ra rủi ro an ninh quốc gia. Theo một nguồn tin yêu cầu giấu tên, giới chức Mỹ ước tính hoạt động chưng cất trái phép gây thiệt hại hàng tỉ USD lợi nhuận mỗi năm cho các phòng thí nghiệm AI tại thung lũng Silicon.
OpenAI xác nhận công ty tham gia nỗ lực chia sẻ thông tin về chưng cất đối kháng thông qua Frontier Model Forum, đồng thời dẫn lại bản ghi nhớ gần đây gửi tới Quốc hội Mỹ về vấn đề này. Trong bản ghi nhớ đó, OpenAI cáo buộc công ty Trung Quốc DeepSeek tìm cách "ăn theo năng lực do OpenAI và các phòng thí nghiệm AI tiên phong khác của Mỹ phát triển." Google, Anthropic và Frontier Model Forum từ chối bình luận.
Chưng cất (distillation) là kỹ thuật trong đó một mô hình AI cũ đóng vai trò "giáo viên" được sử dụng để huấn luyện một mô hình "học trò" mới, sao chép năng lực của hệ thống trước đó với chi phí thường thấp hơn rất nhiều so với việc xây dựng mô hình gốc từ đầu. Một số hình thức chưng cất được chấp nhận rộng rãi và thậm chí được các phòng thí nghiệm AI khuyến khích, chẳng hạn khi các công ty tạo ra phiên bản nhỏ gọn, hiệu quả hơn từ chính mô hình của mình, hoặc cho phép các nhà phát triển bên ngoài sử dụng chưng cất để xây dựng công nghệ không mang tính cạnh tranh.
Tuy nhiên, kỹ thuật này trở nên gây tranh cãi khi bên thứ ba sử dụng, đặc biệt tại các quốc gia đối thủ như Trung Quốc hay Nga, để sao chép công nghệ độc quyền mà không được phép. Các phòng thí nghiệm AI hàng đầu của Mỹ đã cảnh báo rằng các đối thủ nước ngoài có thể dùng kỹ thuật này để phát triển mô hình AI không có các rào chắn an toàn, chẳng hạn như giới hạn ngăn người dùng tạo ra mầm bệnh chết người.
Phần lớn mô hình do các phòng thí nghiệm Trung Quốc phát triển đều ở dạng mã nguồn mở trọng số (open weight), nghĩa là một phần hệ thống AI nền tảng được công khai để người dùng tải về và chạy trên nền tảng riêng, do đó chi phí sử dụng thấp hơn. Điều này tạo ra thách thức kinh tế cho các công ty AI Mỹ vốn giữ mô hình ở dạng độc quyền, đặt cược rằng khách hàng sẽ trả tiền để truy cập sản phẩm và giúp bù đắp hàng trăm tỉ USD đã đầu tư vào trung tâm dữ liệu cùng các cơ sở hạ tầng khác.
Kỹ thuật chưng cất lần đầu thu hút sự giám sát nghiêm túc vào tháng 1.2025, trong những tuần sau khi DeepSeek bất ngờ phát hành mô hình suy luận R1 gây chấn động giới AI. Ngay sau đó, Microsoft và OpenAI đã tiến hành điều tra liệu startup Trung Quốc này có trích xuất trái phép lượng lớn dữ liệu từ các mô hình của hãng Mỹ để tạo ra R1 hay không, theo tin của Bloomberg.
Vào tháng 2, OpenAI cảnh báo các nhà lập pháp Mỹ rằng DeepSeek tiếp tục sử dụng các chiến thuật ngày càng tinh vi để trích xuất kết quả từ các mô hình Mỹ, bất chấp những nỗ lực tăng cường nhằm ngăn chặn việc lạm dụng sản phẩm. Trong bản ghi nhớ gửi ủy ban Đặc biệt về Trung Quốc của Hạ viện, OpenAI tuyên bố DeepSeek đang dựa vào chưng cất để phát triển phiên bản mới của chatbot đột phá.
Việc các công ty AI Mỹ chia sẻ thông tin về chưng cất đối kháng phản ánh một thông lệ phổ biến trong ngành an ninh mạng, nơi các hãng thường xuyên trao đổi dữ liệu về các cuộc tấn công và chiến thuật của đối thủ nhằm củng cố hệ thống phòng thủ mạng. Bằng cách hợp tác, các công ty AI cũng đang tìm cách phát hiện hiệu quả hơn hoạt động chưng cất trái phép, xác định ai đứng sau và ngăn chặn những người dùng không được phép.
Các quan chức chính quyền Trump đã phát tín hiệu sẵn sàng thúc đẩy việc chia sẻ thông tin giữa các công ty AI để kiềm chế chưng cất đối kháng. Kế hoạch Hành động AI do tổng thống Donald Trump công bố năm ngoái kêu gọi thành lập một trung tâm chia sẻ và phân tích thông tin, một phần phục vụ mục đích này.
Cho đến thời điểm hiện tại, việc chia sẻ thông tin về chưng cất vẫn còn hạn chế do các công ty AI chưa chắc chắn về phạm vi thông tin được phép trao đổi theo các hướng dẫn chống độc quyền hiện hành nhằm đối phó với mối đe dọa cạnh tranh từ Trung Quốc, theo những người nắm rõ vấn đề. Các công ty sẽ được hưởng lợi nếu chính phủ Mỹ đưa ra hướng dẫn rõ ràng hơn.
Chưng cất đã trở thành mối quan ngại hàng đầu của các nhà phát triển AI Mỹ kể từ khi DeepSeek gây chao đảo thị trường toàn cầu vào đầu năm 2025 với bản phát hành R1. Các mô hình mã nguồn mở có năng lực cao tiếp tục gia tăng tại Trung Quốc, và nhiều người trong ngành đang theo dõi sát sao bản nâng cấp lớn tiếp theo của mô hình DeepSeek.
Năm ngoái, Anthropic đã chặn các công ty do Trung Quốc kiểm soát sử dụng mô hình chatbot Claude của hãng. Đến tháng 2, Anthropic xác định ba phòng thí nghiệm AI Trung Quốc gồm DeepSeek, Moonshot và MiniMax đã trích xuất trái phép năng lực của mô hình thông qua chưng cất. Năm nay, Anthropic tuyên bố mối đe dọa "vượt ra ngoài phạm vi bất kỳ công ty hay khu vực đơn lẻ nào" và đặt ra rủi ro an ninh quốc gia, bởi các mô hình chưng cất thường thiếu các rào chắn an toàn được thiết kế để ngăn kẻ xấu lợi dụng công cụ AI cho mục đích phá hoại.
Google đã đăng bài trên blog cho biết hãng ghi nhận sự gia tăng các nỗ lực trích xuất mô hình. Ba phòng thí nghiệm AI Mỹ chưa đưa ra bằng chứng cho thấy mức độ đổi mới mô hình của Trung Quốc phụ thuộc bao nhiêu vào chưng cất, nhưng họ lưu ý rằng mức độ phổ biến của các cuộc tấn công có thể đo lường dựa trên khối lượng yêu cầu dữ liệu quy mô lớn.
Với sự hỗ trợ từ Chris Welch
Theo Bloomberg
Theo phattrienxanh.baotainguyenmoitruong.vn
https://phattrienxanh.baotainguyenmoitruong.vn/openai-anthropic-va-google-bat-tay-chong-nan-sao-chep-mo-hinh-ai-tu-trung-quoc-57140.html
Tặng bài viết
Đối với thành viên đã trả phí, bạn có 5 bài viết mỗi tháng để gửi tặng. Người nhận quà tặng có thể đọc bài viết đầy đủ miễn phí và không cần đăng ký gói sản phẩm.
Bạn còn 5 bài viết có thể tặng
Liên kết quà tặng có giá trị trong vòng 7 ngày.
BÀI LIÊN QUAN
Gói đăng ký