• Việc áp dụng toàn cầu các mô hình AI của Trung Quốc đã tăng gần gấp ba lần từ 13% lên khoảng 30% tổng mức sử dụng vào năm 2025, theo 100 nghìn tỷ mã thông báo của OpenRouter Phân tích
  • Lập trình và nhập vai thống trị các mô hình sử dụng AI, với các mô hình nguồn mở chiếm 1/3 thị trường

Dữ liệu gần đây tiết lộ rằng việc áp dụng toàn cầu các mô hình AI của Trung Quốc đã đạt đến mức chưa từng có, với các mô hình từ Trung Quốc đại lục, Đài Loan và Hồng Kông chiếm gần 30% tổng mức sử dụng trí tuệ nhân tạo vào cuối năm 2025—một mức tăng đáng kể so với mức chỉ 13% vào đầu năm.

Những phát hiện này xuất hiện từ báo cáo Trạng thái AI mới phát hành của OpenRouter, đã phân tích hơn 100 nghìn tỷ mã thông báo ngôn ngữ lớn trong thế giới thực người mẫu (LLM) tương tác trên hơn 300 mô hình từ hơn 60 nhà cung cấp.

Báo cáo cung cấp nghiên cứu thực nghiệm toàn diện nhất cho đến nay về cách các hệ thống AI thực sự được triển khai trong thực tế.

Báo cáo cho biết: “Các mô hình nguồn mở của Trung Quốc đều đặn thu hút được sự chú ý, đạt gần 30% tổng mức sử dụng trong số tất cả các mô hình trong một số tuần”, báo cáo nêu rõ, nhấn mạnh các mô hình từ DeepSeek, Qwen (Alibaba) và Kimi của Moonshot AI là động lực chính cho việc mở rộng này.

DeepSeek dẫn đầu hệ sinh thái nguồn mở với 14,37 nghìn tỷ token được xử lý trong thời gian nghiên cứu, mặc dù sự thống trị thị trường của nó đã bị phân tán khi các đối thủ cạnh tranh nổi lên. Qwen đứng thứ hai với 5,59 nghìn tỷ token, tiếp theo là LLaMA của Meta với 3,96 nghìn tỷ token.

Báo cáo xác định điều mà các nhà nghiên cứu gọi là “Sự chuyển biến mùa hè” vào giữa năm 2025, khi bối cảnh AI nguồn mở chuyển từ cạnh tranh gần như độc quyền sang cạnh tranh đa nguyên.

Theo phân tích: “Vào cuối năm 2025, cán cân cạnh tranh đã chuyển từ gần như độc quyền sang hỗn hợp đa nguyên. Không có mô hình nào vượt quá 25% số token OSS”.

Tiếng Trung giản thể hiện chiếm gần 5% khối lượng token toàn cầu — ngôn ngữ lớn thứ hai sau tiếng Anh, chiếm ưu thế ở mức 82,87%. Sự phân bổ ngôn ngữ này phản ánh sự tham gia bền vững của người dùng trong môi trường song ngữ hoặc tiếng Trung đầu tiên và nhấn mạnh tầm quan trọng ngày càng tăng của khả năng AI đa ngôn ngữ.

Tỷ lệ chi tiêu suy luận AI tổng thể của châu Á đã tăng hơn gấp đôi trong thời gian nghiên cứu, tăng từ khoảng 13% lên 31% mức sử dụng toàn cầu. Singapore nổi lên là quốc gia lớn thứ hai về khối lượng token (9,21%) sau Hoa Kỳ (47,17%), trong đó Trung Quốc đứng thứ tư với 6,01%.

Báo cáo tiết lộ các mô hình sử dụng không mong muốn thách thức các giả định thông thường về triển khai AI. Trái ngược với niềm tin rằng các nhiệm vụ năng suất chiếm ưu thế, hoạt động nhập vai sáng tạo chiếm hơn 50% mức sử dụng mô hình nguồn mở, trong khi lập trình đại diện cho danh mục lớn thứ hai và là phân khúc phát triển nhanh nhất nói chung.

Các nhà nghiên cứu lưu ý: “Các truy vấn lập trình chiếm khoảng 11% tổng khối lượng mã thông báo vào đầu năm 2025 và vượt quá 50% trong những tuần gần đây”, phản ánh sự tích hợp sâu của AI vào quy trình phát triển phần mềm.

Theo báo cáo, các mô hình nguồn mở hiện chiếm khoảng 1/3 tổng lượng sử dụng AI, đạt “mức cân bằng khoảng 30%”.

Điều này đánh dấu sự thay đổi cơ bản trong hệ sinh thái AI, nơi các hệ thống độc quyền từ OpenAI, Anthropic và Google cạnh tranh trực tiếp với các giải pháp thay thế dựa vào cộng đồng.

Nghiên cứu này đưa ra khái niệm “suy luận tác nhân”, mô tả sự thay đổi từ việc tạo văn bản một lượt sang quy trình lý luận tích hợp công cụ, nhiều bước.

Các mô hình được tối ưu hóa cho lý luận hiện chiếm hơn 50% tổng số mã thông báo được xử lý—tăng từ mức gần như bằng 0 vào đầu năm 2025—cho thấy rằng các hệ thống AI ngày càng được triển khai dưới dạng các thành phần trong các hệ thống tự động lớn hơn thay vì cho các truy vấn riêng biệt.

Báo cáo giải thích: “Yêu cầu LLM trung bình không còn là một câu hỏi đơn giản hoặc hướng dẫn riêng biệt nữa. Thay vào đó, nó là một phần của vòng lặp có cấu trúc giống như tác nhân, gọi các công cụ bên ngoài, lý luận về trạng thái và tồn tại trong các bối cảnh dài hơn”.

Độ dài mã thông báo nhắc nhở trung bình đã tăng gần gấp bốn lần kể từ đầu năm 2024, từ khoảng 1.500 lên hơn 6.000 mã thông báo, trong khi thời lượng hoàn thành tăng gần gấp ba. Khối lượng công việc lập trình thúc đẩy sự mở rộng này, với các yêu cầu liên quan đến mã thường xuyên vượt quá 20.000 mã thông báo đầu vào.

Nghiên cứu này cũng xác định cái mà các nhà nghiên cứu gọi là “Hiệu ứng Chiếc dép thủy tinh Lọ Lem”—một hiện tượng trong đó những nhóm người dùng đầu tiên nhận thấy sự liên kết chính xác giữa mô hình và khối lượng công việc có tỷ lệ giữ chân cao hơn đáng kể so với những người dùng sau này.

Mô hình này cho thấy rằng việc là người đầu tiên giải quyết khối lượng công việc quan trọng sẽ tạo ra lợi thế cạnh tranh lâu dài. Phân tích chi phí cho thấy nhu cầu vẫn tương đối kém co giãn về giá, với sức mạnh định giá thay đổi đáng kể giữa các phân khúc thị trường.

Các mô hình cao cấp từ Anthropic và OpenAI có giá khoảng 2-35 đô la Mỹ trên một triệu mã thông báo trong khi vẫn duy trì mức sử dụng cao, trong khi “những gã khổng lồ hiệu quả” như Gemini 2.0 Flash và DeepSeek V3 của Google đạt được quy mô tương tự ở mức dưới 0,40 đô la Mỹ trên một triệu mã thông báo.

Báo cáo kết luận rằng “LLM phải hữu ích trên toàn cầu—hoạt động tốt trên các ngôn ngữ, bối cảnh và thị trường. Giai đoạn cạnh tranh tiếp theo sẽ xoay quanh khả năng thích ứng văn hóa và khả năng đa ngôn ngữ, chứ không chỉ quy mô mô hình.”

Để có báo cáo Trạng thái AI đầy đủ với phương pháp và phân tích chi tiết, hãy truy cập OpenRouter’s trang web.

Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra trí tuệ nhân tạo & Triển lãm dữ liệu lớn diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này là một phần của TechExđược đồng vị trí cùng các sự kiện công nghệ hàng đầu khácbấm vào đây để biết thêm thông tin.

Tech Wire Asia được cung cấp bởi Truyền thông TechForge. Khám phá các sự kiện và hội thảo trực tuyến về công nghệ doanh nghiệp sắp tới khác đây.

Chia sẻ.
Để lại bình luận