- AWS giới thiệu chip và công cụ mới dành cho AI tại re:Invent 2025.
- Các bản cập nhật đánh dấu sự chuyển đổi từ thí điểm AI sang lập kế hoạch cơ sở hạ tầng dài hạn.
Tại hội nghị re:Invent 2025 ở Las Vegas, AWS đã phác thảo một loạt nội dung cập nhật nhằm hỗ trợ các công ty xây dựng và vận hành hệ thống AI trên quy mô lớn. Các thông báo tập trung vào chip tùy chỉnh, công cụ mới dành cho tác nhân AI và những thay đổi về cách các tổ chức lớn triển khai và quản lý khối lượng công việc AI trên đám mây.
Các bản cập nhật phản ánh sự thay đổi ngày càng tăng trong việc sử dụng AI của doanh nghiệp. Thay vì thử nghiệm các mô hình một cách riêng biệt, nhiều công ty hiện đang cố gắng chạy AI trong dịch vụ khách hàng, phát triển phần mềm, phân tích và vận hành nội bộ. Thông báo của AWS cho thấy công ty đang điều chỉnh các dịch vụ đám mây của mình để hỗ trợ việc chuyển từ thử nghiệm sang sử dụng hàng ngày.
Chip mới để hỗ trợ khối lượng công việc AI lớn hơn
Một trong những chủ đề trọng tâm tại re:Invent là cơ sở hạ tầng. AWS đã giới thiệu Trainium3 Ultra, phiên bản mới của chip AI tùy chỉnh được thiết kế để đào tạo các mô hình lớn. Theo AWS, hệ thống Trainium3 Ultra có thể được nhóm thành các nhóm lớn, cho phép các công ty đào tạo các mô hình với hàng trăm tỷ tham số.
AWS cũng chia sẻ thông tin chi tiết về Graviton5, thế hệ bộ xử lý đa năng mới nhất của hãng. Mặc dù chip Graviton không chỉ được thiết kế cho AI nhưng AWS cho biết phiên bản mới mang lại hiệu suất cao hơn và sử dụng ít năng lượng hơn cho các khối lượng công việc như xử lý dữ liệu, cơ sở dữ liệu và các dịch vụ phụ trợ thường hỗ trợ các ứng dụng AI.
AWS đóng khung các chip này như một cách để khách hàng giảm sự phụ thuộc vào phần cứng của bên thứ ba. Trong bản tin re:Invent, công ty cho biết mục tiêu là cung cấp cho khách hàng nhiều quyền kiểm soát hơn về chi phí, quy mô và tính khả dụng khi chạy khối lượng công việc AI.
Sự thúc đẩy đối với các tác nhân AI
Một trọng tâm chính khác là các tác nhân AI. AWS đã giới thiệu các bản cập nhật cho Amazon Bedrock, dịch vụ xây dựng ứng dụng bằng mô hình nền tảng. Một trong những bổ sung, được gọi là AgentCore, được thiết kế để giúp các nhà phát triển tạo ra các tác nhân AI có thể thực hiện các hành động trong hệ thống chứ không chỉ phản hồi các lời nhắc.
AWS mô tả các tác nhân này là những công cụ có thể xử lý các tác vụ như lấy dữ liệu từ hệ thống nội bộ, kích hoạt quy trình công việc hoặc phản hồi yêu cầu của khách hàng mà không cần sự can thiệp liên tục của con người. Công ty cho biết AgentCore bao gồm các biện pháp kiểm soát để xác định những gì một tác nhân có thể truy cập và cách nó hoạt động, nhằm giảm nguy cơ xảy ra lỗi hoặc sử dụng sai mục đích.
Trong bài phát biểu quan trọng, Giám đốc điều hành AWS Matt Garman cho biết: “Khách hàng muốn có hệ thống AI không chỉ tạo văn bản mà còn thực sự giúp hoàn thành công việc”.
Nhà máy AI và triển khai quy mô lớn
AWS cũng giới thiệu khái niệm Nhà máy AI, được mô tả là môi trường dựng sẵn kết hợp các công cụ điện toán, lưu trữ, kết nối mạng và phần mềm cho các dự án AI lớn. Chúng dành cho các tổ chức đào tạo hoặc chạy nhiều mô hình cùng một lúc, thường ở các khu vực.
Theo AWS, AI Factory nhằm mục đích rút ngắn thời gian chuyển từ giai đoạn phát triển sang sản xuất. Thay vì lắp ráp cơ sở hạ tầng từng phần một, khách hàng có thể bắt đầu với một bố cục tiêu chuẩn và điều chỉnh nó theo thời gian. AWS cho biết cách tiếp cận này nhắm đến các công ty có lộ trình AI dài hạn chứ không phải các công ty thí điểm ngắn hạn.
Những thay đổi trong cách doanh nghiệp nghĩ về chi phí AI
Kiểm soát chi phí là một chủ đề được lặp đi lặp lại. Việc đào tạo và chạy các mô hình AI lớn vẫn còn tốn kém và AWS thừa nhận rằng nhiều khách hàng đang gặp khó khăn trong việc dự đoán hoặc quản lý những chi phí đó. Bên cạnh các chip mới, AWS còn đề cập đến các công cụ giúp theo dõi việc sử dụng và phân bổ chi tiêu trong nhóm.
AWS cho biết những cập nhật này nhằm mục đích làm cho chi tiêu AI trở nên rõ ràng hơn đối với các nhà lãnh đạo tài chính và CNTT, không chỉ các kỹ sư. Điều đó phản ánh sự thay đổi lớn hơn trong cách các công ty nhìn nhận các dự án AI, vốn ngày càng được coi là đầu tư cơ sở hạ tầng dài hạn chứ không phải ngân sách thử nghiệm.
Các nhà phân tích trong ngành đã lưu ý rằng việc tập trung vào tính minh bạch về chi phí đang trở nên quan trọng hơn khi khối lượng công việc AI tăng lên. Trong phạm vi đưa tin sau re:Invent, một số nhà phân tích cho biết các nhà cung cấp đám mây đang chịu áp lực phải chứng minh rằng AI có thể được mở rộng quy mô theo cách có kiểm soát, không chỉ ở mức chi tiêu cao.
Giọng điệu nhẹ nhàng hơn nhưng định hướng rõ ràng
Không giống như các sự kiện AI trước đó tập trung vào những tuyên bố táo bạo hoặc đột phá nhanh chóng, các thông báo về re:Invent 2025 của AWS được đo lường nhiều hơn. Công ty dành ít thời gian hơn cho các con số hiệu suất của mô hình và dành nhiều thời gian hơn cho việc làm thế nào để hệ thống AI phù hợp với môi trường doanh nghiệp hiện tại.
Nhiều công ty đã qua giai đoạn cân nhắc xem có nên sử dụng AI hay không. Các câu hỏi khó hơn bây giờ là làm thế nào để vận hành nó một cách đáng tin cậy, làm thế nào để kiểm soát quyền truy cập và làm thế nào để kiểm soát chi phí theo thời gian. Các bản cập nhật của AWS cho thấy họ coi vai trò của mình là cung cấp các hệ thống cơ bản để hỗ trợ sự thay đổi đó, chứ không phải thúc đẩy một sản phẩm hoặc mô hình AI nào.
Bạn muốn trải nghiệm toàn bộ quá trình đổi mới công nghệ của doanh nghiệp? Tham gia TechEx ở Amsterdam, California và London. Bao gồm AI, Dữ liệu lớn, An ninh mạng, IoT, Chuyển đổi kỹ thuật số, Tự động hóa thông minh, Điện toán biên và Trung tâm dữ liệu, TechEx tập hợp các nhà lãnh đạo toàn cầu để chia sẻ các trường hợp sử dụng trong thế giới thực và hiểu biết sâu sắc. Bấm vào đây để biết thêm thông tin.
TechHQ được cung cấp bởi TechForge Media. Khám phá các sự kiện và hội thảo trực tuyến về công nghệ doanh nghiệp sắp tới khác tại đây.



