Meta đặt cược lớn vào hạ tầng đám mây dùng chip Arm

Meta đang lên kế hoạch triển khai hàng chục triệu lõi CPU Graviton 5 của Amazon Web Services (AWS) trong một thỏa thuận kéo dài nhiều năm, cho thấy hãng này đang mở rộng mạnh mẽ năng lực tính toán phục vụ tham vọng AI. Graviton là dòng vi xử lý do AWS tự thiết kế, dựa trên kiến trúc Arm thay vì x86 truyền thống của Intel và AMD. Quy mô triển khai này có thể đưa Meta trở thành một trong những khách hàng tiêu thụ silicon “cây nhà lá vườn” lớn nhất của Amazon từ trước tới nay.

Không chỉ GPU, AI vẫn cần CPU làm nền

Dù GPU vẫn là phần cứng chủ lực để huấn luyện và vận hành các mô hình AI tạo sinh, CPU vẫn giữ vai trò không thể thiếu trong toàn bộ ngăn xếp phần mềm. Nói đơn giản, GPU rất giỏi xử lý song song khối lượng lớn phép toán, còn CPU đảm nhiệm điều phối hệ thống, chạy framework, quản lý dữ liệu và vận hành các tác vụ nền. Theo Meta, số lõi Graviton mới sẽ được dùng để hỗ trợ các hệ thống “agentic AI” – tức các tác nhân AI có khả năng tự thực hiện chuỗi hành động nhiều bước thay vì chỉ trả lời một câu lệnh đơn lẻ.

Graviton 5 mang lại bước nhảy hiệu năng đáng kể

Thế hệ Graviton mới nhất của AWS tích hợp 192 lõi Neoverse V3 của Arm. Neoverse là dòng thiết kế CPU Arm hướng riêng đến máy chủ và trung tâm dữ liệu, khác với các nhân Arm phổ biến trên smartphone. Ngoài số lõi lớn, Graviton 5 còn có bộ nhớ đệm L3 lớn hơn đáng kể. L3 cache là vùng nhớ siêu nhanh nằm gần bộ xử lý, giúp giảm thời gian chờ khi truy xuất dữ liệu. Chip này cũng hỗ trợ bộ nhớ DDR5 ở mức 8.800 MT/s, trong đó MT/s là đơn vị đo tốc độ truyền dữ liệu của RAM. AWS cho biết tổ hợp cải tiến này giúp Graviton 5 tăng khoảng 25% hiệu năng so với Graviton 4.

Meta muốn đa dạng hóa nguồn lực tính toán

Lãnh đạo hạ tầng của Meta, Santosh Janardhan, mô tả hợp tác với AWS là một phần trong chiến lược đa dạng hóa “đội hình” tính toán. Điều này phản ánh thực tế rằng các công ty AI lớn không còn muốn phụ thuộc vào một loại chip hay một nhà cung cấp duy nhất. Sau cú trượt dài với metaverse, Meta hiện dường như tập trung trở lại vào cuộc đua AI thực dụng hơn, nơi lợi thế không chỉ nằm ở mô hình mà còn ở khả năng bảo đảm đủ tài nguyên tính toán với chi phí hợp lý và nguồn cung ổn định.

Từ Nvidia Grace đến AGI CPU, Meta đang nghiêng hẳn về Arm

Các dấu hiệu cho thấy Meta đang ngày càng thân thiết với hệ sinh thái Arm xuất hiện ngày một rõ. Hồi tháng 2, công ty cho biết mình nằm trong nhóm đầu tiên triển khai CPU Grace của Nvidia ở quy mô lớn. Grace là bộ xử lý Arm độc lập dành cho máy chủ AI. Sau đó, Meta tiếp tục công bố kế hoạch sử dụng Vera, dòng CPU 88 lõi hoàn toàn mới của Nvidia. Đến tháng 3, Arm tiết lộ họ đã hợp tác chặt chẽ với Meta để phát triển con chip trung tâm dữ liệu mang thương hiệu riêng đầu tiên của hãng, có tên tạm gọi là “AGI CPU”, tích hợp 136 lõi Neoverse V3 trong mức điện năng 300 watt. AGI ở đây thường được hiểu là Artificial General Intelligence, dù trong bối cảnh này tên gọi chủ yếu mang tính định vị chiến lược hơn là khẳng định năng lực đạt tới AI tổng quát.

AWS có thể là bước đệm trước khi Meta tự đưa tải việc về nhà

Con chip AGI CPU của Arm chưa sẵn sàng để đi vào trung tâm dữ liệu Meta ngay lập tức và dự kiến phải đến cuối năm mới bắt đầu xuất hiện. Tuy nhiên, sự tương đồng giữa AGI CPU và Graviton 5, đặc biệt ở nền tảng Neoverse V3, tạo ra một lộ trình chuyển đổi khá mượt. Meta có thể chạy trước một phần khối lượng công việc trên hạ tầng AWS, sau đó đưa dần các workload – tức các tác vụ xử lý cụ thể của hệ thống – trở lại hạ tầng nội bộ khi silicon riêng hoặc bán tùy biến hoàn thiện. Đây là chiến lược quen thuộc trong ngành: dùng đám mây để tăng tốc triển khai, rồi tối ưu chi phí dài hạn bằng hạ tầng tự sở hữu.

Làn sóng Arm đang tăng tốc trong máy chủ AI

Động thái của Meta cũng phản ánh xu hướng lớn hơn của thị trường: Arm đang tiến sâu vào trung tâm dữ liệu AI. Theo dự báo của Counterpoint Research, đến năm 2029, CPU dựa trên Arm có thể chiếm tới 90% thị trường CPU trong các máy chủ AI ASIC. ASIC là chip chuyên dụng được tối ưu cho một nhóm tác vụ cụ thể, chẳng hạn tăng tốc AI, thay vì xử lý đa mục đích như CPU phổ thông. Dù x86 vẫn còn hiện diện mạnh trong hạ tầng máy chủ hiện nay, các nhà phân tích cho rằng lợi thế đó đang suy giảm nhanh khi các hãng công nghệ lớn ưu tiên thiết kế Arm tùy biến để tối ưu hiệu năng trên mỗi watt điện và kiểm soát sâu hơn chuỗi cung ứng.

Google, AWS và Nvidia đều đang rời xa x86

Sự dịch chuyển này không chỉ diễn ra tại Meta. Nvidia đã mở đường từ năm 2023 với Grace, đưa CPU Arm vào nhiều hệ thống GPU của mình thay cho bộ xử lý x86 từ Intel và AMD. Tháng 12 năm ngoái, AWS cho biết họ sẽ thay CPU Intel bằng chip tự phát triển trong các rack AI Trainium 3. Rack là cụm máy chủ lắp theo khung tiêu chuẩn trong trung tâm dữ liệu. Mới trong tuần này, Google cũng xác nhận sẽ thay các chip x86 trong cụm TPU bằng Axion, dòng CPU Arm do chính hãng phát triển. TPU, viết tắt của Tensor Processing Unit, là bộ tăng tốc AI chuyên dụng của Google. Khi những tên tuổi lớn nhất ngành cùng chọn Arm, thị trường máy chủ AI rõ ràng đang bước vào một giai đoạn tái định hình sâu sắc.

Meta đang viết lại chiến lược hậu metaverse

Nếu trước đây Meta được nhắc đến nhiều vì các khoản đầu tư khổng lồ vào metaverse nhưng chưa tạo ra đột phá tương xứng, thì giờ đây công ty đang thể hiện một hướng đi thực tế hơn: xây nền móng hạ tầng cho AI ở quy mô cực lớn. Việc ký thỏa thuận với AWS để tiếp cận hàng chục triệu lõi Graviton 5 không chỉ là một thương vụ mua tài nguyên điện toán, mà còn là tín hiệu cho thấy Meta muốn đứng ở tuyến đầu của làn sóng AI bằng cách kết hợp đám mây, chip Arm và chiến lược đa nguồn cung. Trong cuộc đua mới, kẻ chiến thắng có thể không phải là công ty sở hữu một con chip thống trị tất cả, mà là công ty biết ghép đúng nhiều mảnh công nghệ để đạt tốc độ, chi phí và độ linh hoạt tối ưu.

Danh mục máy quét mã vạch

Máy quét mã vạch - Quét mã Qr - Quét mã vạch sản phẩm.

DÒNG MÁY CÓ DÂY

máy quét mã vạch không dây

DÒNG MÁY KHÔNG DÂY

DÒNG MÁY KIỂM KHO PDA

DÒNG MÁY FITMOUNT