Việc các công ty Trung Quốc như Huawei, Cambricon và Hygon cùng nhau hành động nhanh chóng và phối hợp chặt chẽ cho thấy quyết tâm thực hiện chủ quyền AI, một chính sách ưu tiên hàng đầu của chính phủ Trung Quốc trong bối cảnh căng thẳng công nghệ với Mỹ leo thang.
Công ty AI Trung Quốc DeepSeek vừa công bố mô hình ngôn ngữ lớn mới nhất mang tên DeepSeek-V3.2-Exp, với khả năng tối ưu hóa ngay từ ngày đầu tiên cho phần cứng Ascend của Huawei và ngăn xếp phần mềm CANN. Động thái này đánh dấu một bước chuyển mạnh mẽ nhằm giảm sự phụ thuộc vào hệ sinh thái CUDA của Nvidia, đồng thời thúc đẩy mục tiêu chủ quyền công nghệ mà Bắc Kinh đặt ra cho ngành công nghiệp AI.
Giảm chi phí suy luận với kiến trúc "chú ý thưa thớt"
Mô hình DeepSeek-V3.2-Exp được công bố vào ngày 29/9 trên nền tảng Hugging Face, bao gồm mã nguồn mở, điểm kiểm tra (checkpoints) và báo cáo kỹ thuật. Theo DeepSeek, đây là một “bước trung gian hướng tới kiến trúc thế hệ tiếp theo”, tập trung vào việc cắt giảm chi phí suy luận cho ngữ cảnh dài — một yếu tố quan trọng trong các ứng dụng chatbot và tổng hợp văn bản quy mô lớn.
Cốt lõi của mô hình là cơ chế chú ý thưa thớt (sparse attention), giúp giảm đáng kể yêu cầu về bộ nhớ và tài nguyên tính toán, đồng thời duy trì chất lượng đầu ra của mô hình.
![DeepSeek ra mat mo hinh AI V3.2-Exp, danh dau chu quyen AI cua Trung Quoc DeepSeek ra mắt mô hình AI V3.2-Exp, đánh dấu chủ quyền AI của Trung Quốc]()
Đây là một “bước trung gian hướng tới kiến trúc thế hệ tiếp theo”, tập trung vào việc cắt giảm chi phí suy luận cho ngữ cảnh dài
Tích hợp nhanh vào hệ sinh thái phần cứng nội địa
Ngay sau khi ra mắt, nhóm Ascend của Huawei và cộng đồng vLLM-Ascend đã nhanh chóng tích hợp DeepSeek-V3.2-Exp. Bản phát hành mới trên kho vLLM-Ascend đã công bố các gói kernel và toán tử tùy chỉnh, hỗ trợ đầy đủ mô hình trên các bộ xử lý NPU Ascend của Huawei.
Cambricon, một trong những nhà sản xuất chip AI hàng đầu Trung Quốc, cũng cập nhật nhánh vLLM-MLU để tương thích với V3.2-Exp, khẳng định rằng sự kết hợp giữa công cụ suy luận của họ và kiến trúc chú ý thưa thớt mang lại hiệu quả cao trong xử lý chuỗi dài. Hygon, một tên tuổi khác trong ngành bán dẫn Trung Quốc, cũng tuyên bố các bộ tăng tốc DCU của họ đã được tinh chỉnh để hỗ trợ mô hình thông qua ngăn xếp DTK, cho phép triển khai “không cần chờ đợi”.
![DeepSeek ra mat mo hinh AI V3.2-Exp, danh dau chu quyen AI cua Trung Quoc 2 DeepSeek ra mắt mô hình AI V3.2-Exp, đánh dấu chủ quyền AI của Trung Quốc 2]()
DeepSeek vẫn giữ tính tương thích với CUDA, cho phép cùng một mô hình hoạt động hiệu quả trên cả Nvidia GPU và bộ tăng tốc nội địa mà chỉ cần điều chỉnh tối thiểu
Hướng tới khả năng tương thích đa nền tảng
Bên cạnh các phần cứng nội địa, nền tảng SGLang xác nhận hỗ trợ V3.2-Exp trên nhiều backend, bao gồm cả Ascend. Các ghi chú từ GitHub của DeepSeek cho thấy kiến trúc mô hình tương thích cao với vLLM, đồng thời khuyến khích các nhà nghiên cứu sử dụng TileLang để xây dựng và triển khai mô hình.
Đáng chú ý, DeepSeek vẫn giữ tính tương thích với CUDA, cho phép cùng một mô hình hoạt động hiệu quả trên cả Nvidia GPU và bộ tăng tốc nội địa mà chỉ cần điều chỉnh tối thiểu — một chiến lược linh hoạt giúp mở rộng phạm vi triển khai mà không phụ thuộc vào một nền tảng duy nhất.
Chủ quyền công nghệ: từ lời nói đến hành động
Việc các công ty Trung Quốc như Huawei, Cambricon và Hygon cùng nhau hành động nhanh chóng và phối hợp chặt chẽ cho thấy quyết tâm thực hiện chủ quyền AI, một chính sách ưu tiên hàng đầu của chính phủ Trung Quốc trong bối cảnh căng thẳng công nghệ với Mỹ leo thang.
Trong khi CUDA của Nvidia vẫn chiếm ưu thế tuyệt đối trong lĩnh vực huấn luyện và suy luận AI, DeepSeek-V3.2-Exp là một trong những mô hình đầu tiên của Trung Quốc được thiết kế hướng tới các nền tảng không-CUDA ngay từ ngày đầu ra mắt — một tín hiệu rõ ràng rằng hệ sinh thái AI nội địa đang bước vào giai đoạn tự chủ hóa công nghệ toàn diện.