Công nghệ

Tập đoàn do Jack Ma hậu thuẫn sử dụng chip nội địa Trung Quốc để huấn luyện AI và tiết kiệm chi phí

Jack Ma hậu thuẫn Ant Group tuyên bố đột phá AI, dùng chip Trung Quốc để cắt giảm 20% chi phí huấn luyện.

Trụ sở của Ant Group Co. ở Hàng Châu, Trung Quốc. Hình ảnh: Qilai Shen/Bloomberg

Trụ sở của Ant Group Co. ở Hàng Châu, Trung Quốc. Hình ảnh: Qilai Shen/Bloomberg

Tác giả: Lulu Yilun Chen với sự hỗ trợ của Debby Wu

24 tháng 3, 2025 lúc 9:46 AM

Ant Group Co., công ty do Jack Ma hậu thuẫn, đã sử dụng chất bán dẫn do Trung Quốc sản xuất để phát triển kỹ thuật huấn luyện mô hình trí tuệ nhân tạo (AI) giúp cắt giảm chi phí tới 20%, theo nguồn tin thân cận.

Ant đã sử dụng các con chip nội địa, bao gồm từ Alibaba Group Holding Ltd. và Huawei Technologies Co., để huấn luyện mô hình theo phương pháp học máy Mixture of Experts (MoE), nguồn tin cho biết. Kết quả thu được tương đương với chip của Nvidia Corp. như H800. Tuy nhiên, thông tin này chưa được công khai. Một nguồn tin khác tiết lộ rằng Ant vẫn sử dụng Nvidia cho phát triển AI nhưng ngày càng phụ thuộc vào các lựa chọn thay thế như Advanced Micro Devices Inc. và chip Trung Quốc cho các mô hình mới nhất.

Việc phát triển các mô hình AI này đánh dấu bước tiến của Ant trong cuộc đua giữa các công ty Trung Quốc và Mỹ, vốn ngày càng tăng tốc kể từ khi DeepSeek chứng minh rằng các mô hình AI mạnh mẽ có thể được đào tạo với chi phí thấp hơn đáng kể so với khoản đầu tư hàng tỷ USD của OpenAI và Alphabet Inc.’s Google. Điều này phản ánh nỗ lực của các công ty Trung Quốc trong việc sử dụng giải pháp thay thế nội địa thay vì chip Nvidia tiên tiến nhất, hiện bị Mỹ cấm xuất khẩu sang Trung Quốc.

Ant đã công bố một báo cáo nghiên cứu trong tháng này, khẳng định rằng các mô hình AI của họ có thể vượt trội hơn nền tảng của Meta Platforms Inc. trong một số tiêu chí đánh giá. Tuy nhiên, Bloomberg News chưa thể xác minh độc lập kết quả này. Nếu đúng như tuyên bố, nền tảng AI của Ant có thể đánh dấu một bước tiến quan trọng trong việc phát triển AI của Trung Quốc, giúp giảm đáng kể chi phí suy luận và vận hành các dịch vụ AI.

Trong bối cảnh các công ty đầu tư mạnh vào AI, các mô hình MoE ngày càng được ưa chuộng, nổi bật với việc được Google và startup DeepSeek tại Hàng Châu ứng dụng. Kỹ thuật này phân chia nhiệm vụ thành các tập dữ liệu nhỏ hơn, tương tự như một nhóm chuyên gia cùng đảm nhận từng phần việc cụ thể, giúp quá trình xử lý trở nên hiệu quả hơn. Ant từ chối bình luận về thông tin này trong phản hồi qua email.

Việc huấn luyện mô hình MoE thường dựa vào các bộ vi xử lý hiệu suất cao như GPU của Nvidia. Chi phí này cho đến nay là một rào cản lớn đối với các doanh nghiệp nhỏ và hạn chế sự phổ biến rộng rãi. Ant đang tìm cách tối ưu hóa quá trình đào tạo mô hình ngôn ngữ lớn (LLM) để khắc phục hạn chế đó. Tiêu đề bài báo cáo nghiên cứu của công ty cũng phản ánh rõ mục tiêu này, nhấn mạnh việc mở rộng quy mô mô hình mà không cần tới GPU cao cấp.

Chiến lược này đi ngược lại quan điểm của Nvidia. CEO Jensen Huang lập luận rằng nhu cầu tính toán sẽ tiếp tục tăng ngay cả khi các mô hình AI hiệu quả hơn, như DeepSeek’s R1, ra đời. Ông nhấn mạnh rằng các công ty sẽ cần những con chip tốt hơn để tạo ra doanh thu cao hơn, thay vì những con chip rẻ hơn nhằm tiết kiệm chi phí. Do đó, Nvidia vẫn kiên trì với chiến lược phát triển GPU cỡ lớn với nhiều lõi xử lý hơn, số lượng bóng bán dẫn lớn hơn và bộ nhớ mở rộng hơn.

Theo nhận định của Robert Lea, nhà phân tích cấp cao tại Bloomberg Intelligence, nghiên cứu của Ant cho thấy tốc độ đổi mới công nghệ ngày càng gia tăng trong lĩnh vực AI của Trung Quốc. Nếu những tuyên bố này được xác nhận, điều đó cho thấy Trung Quốc đang từng bước tiến tới tự chủ trong lĩnh vực AI, nhờ vào việc sử dụng các mô hình chi phí thấp và hiệu suất tính toán cao, giúp giảm sự phụ thuộc vào chip Nvidia vốn đang bị kiểm soát xuất khẩu.

Ant cho biết họ mất khoảng 6,35 triệu nhân dân tệ (tương đương 880.000 USD) để huấn luyện một nghìn tỷ token bằng phần cứng hiệu suất cao. Tuy nhiên, phương pháp tối ưu hóa của công ty có thể giảm chi phí xuống còn 5,1 triệu nhân dân tệ khi sử dụng phần cứng có thông số kỹ thuật thấp hơn. Token là đơn vị thông tin mà mô hình tiếp nhận để học hỏi và cung cấp phản hồi hữu ích cho người dùng.

Công ty dự kiến tận dụng đột phá mới nhất của mình trong các mô hình ngôn ngữ lớn Ling-PlusLing-Lite để phát triển các giải pháp AI cho ngành công nghiệp, bao gồm chăm sóc sức khỏe và tài chính.

Ant đã mua lại nền tảng trực tuyến Haodf.com trong năm nay nhằm củng cố các dịch vụ AI trong lĩnh vực y tế. Hãng cũng có một ứng dụng trợ lý ảo AI có tên Zhixiaobao và một dịch vụ tư vấn tài chính AI có tên Maxiaocai.

Về khả năng hiểu tiếng Anh, Ant khẳng định trong báo cáo rằng mô hình Ling-Lite có kết quả tốt hơn một mô hình Llama của Meta trong một số tiêu chí đánh giá quan trọng. Cả Ling-Lite và Ling-Plus đều vượt qua các mô hình tương đương của DeepSeek trong các bài kiểm tra bằng tiếng Trung.

Ant đã công bố mã nguồn mở cho các mô hình Ling. Mô hình Ling-Lite có 16,8 tỷ tham số, tức là các yếu tố có thể điều chỉnh để tác động đến hiệu suất của mô hình. Trong khi đó, Ling-Plus có 290 tỷ tham số, được xem là khá lớn trong lĩnh vực mô hình ngôn ngữ. Để so sánh, các chuyên gia ước tính rằng GPT-4.5 của ChatGPT có khoảng 1,8 nghìn tỷ tham số, theo MIT Technology Review. DeepSeek-R1 có 671 tỷ tham số.

Ant cũng đối mặt với nhiều thách thức trong quá trình huấn luyện, bao gồm các vấn đề về tính ổn định. Theo báo cáo, chỉ cần một thay đổi nhỏ trong phần cứng hoặc cấu trúc mô hình cũng có thể gây ra lỗi nghiêm trọng, thậm chí dẫn đến tỷ lệ sai số tăng đột biến.

Theo Bloomberg

Theo phattrienxanh.baotainguyenmoitruong.vn

https://phattrienxanh.baotainguyenmoitruong.vn/tap-doan-do-jack-ma-hau-thuan-su-dung-chip-noi-dia-trung-quoc-de-huan-luyen-ai-va-tiet-kiem-chi-phi-52894.html

#Jack Ma
#Ant Group
#Alibaba
#DeepSeek
#Mô hình ngôn ngữ lớn
#Huấn luyện AI
#Mô hình R1
#Huawei
#Meta
#Nvidia
#Jensen Huang

Đăng ký nhận bản tin miễn phí

Liên hệ

Hợp tác quảng cáo

Chăm sóc khách hàng: (028) 888 90868

Email: cs@bloombergbusinessweek.vn

Giấy phép thiết lập trang thông tin điện tử tổng hợp trên mạng số 30/ GP-STTTT do Sở Thông Tin và Truyền Thông thành phố Hồ Chí Minh cấp ngày 24/12/2024

Chịu trách nhiệm nội dung: Ông Võ Quốc Khánh

Trụ sở: Lầu 12A, số 412 Nguyễn Thị Minh Khai, phường Bàn Cờ, Thành phố Hồ Chí Minh

Điện thoại: (028) 8889.0868

Email: bientap@bloombergbusinessweek.vn

© Copyright 2023-2025 Công ty Cổ phần Beacon Asia Media