Meta lộ diện thế hệ chip MTIA mới cho AI

Meta vừa công bố chi tiết về bốn con chip AI tự thiết kế trước đây chưa từng được tiết lộ, được phát triển với sự hợp tác chặt chẽ cùng Broadcom. Các mẫu chip mới thuộc dòng MTIA, viết tắt của Meta Training and Inference Accelerator, tức bộ tăng tốc dành cho huấn luyện và suy luận AI. Trong đó, “suy luận” là giai đoạn mô hình AI đã được huấn luyện xong và bắt đầu tạo ra câu trả lời, dự đoán hoặc nội dung cho người dùng thực tế. Bốn mẫu mới mang số hiệu MTIA 300, 400, 450 và 500, với một số đã đi vào vận hành sản xuất, số còn lại sẽ lần lượt xuất hiện trong năm nay và năm sau.

MTIA 300: chip tối ưu cho xếp hạng và gợi ý nội dung

MTIA 300 được Meta mô tả là chip truyền thông tối ưu cho các tác vụ ranking và recommendation, tức xếp hạng và đề xuất nội dung như bài đăng, video hay quảng cáo phù hợp với từng người dùng. Con chip này dùng kiến trúc chiplet, nghĩa là chia bộ xử lý thành nhiều khối nhỏ thay vì làm một khuôn chip lớn duy nhất, giúp tăng tính linh hoạt trong thiết kế và cải thiện tỷ lệ thành phẩm. MTIA 300 gồm một chiplet tính toán, hai chiplet mạng và nhiều chồng bộ nhớ HBM. HBM, hay High Bandwidth Memory, là loại bộ nhớ băng thông cao thường dùng trong AI vì có thể cấp dữ liệu cực nhanh cho bộ xử lý. Mỗi chiplet tính toán chứa một lưới các phần tử xử lý gọi là PE, viết tắt của Processing Element. Bên trong mỗi PE là hai lõi vector RISC-V, tức kiến trúc xử lý mở có khả năng tăng tốc các phép toán song song thường gặp trong AI. Meta cho biết MTIA 300 hiện đã được triển khai trong môi trường sản xuất.

MTIA 400: bước nhảy sang AI tạo sinh

So với thế hệ trước, MTIA 400 là phiên bản nâng cấp có thể xử lý cả AI tạo sinh, hay generative AI, bên cạnh các tác vụ xếp hạng và gợi ý truyền thống. AI tạo sinh là nhóm mô hình có khả năng tạo văn bản, hình ảnh, âm thanh hoặc video mới thay vì chỉ phân loại dữ liệu. Meta nói đây là mẫu chip đầu tiên của hãng đạt hiệu năng thô đủ sức cạnh tranh với các sản phẩm thương mại hàng đầu trên thị trường. Chip sử dụng hai chiplet tính toán, và khi 72 thiết bị MTIA 400 được đặt chung trong một rack rồi kết nối qua switched backplane, chúng tạo thành một scale-up domain duy nhất. Nói đơn giản, rack là tủ máy chủ tiêu chuẩn trong trung tâm dữ liệu, còn switched backplane là hệ thống kết nối tốc độ cao bên trong giúp nhiều chip giao tiếp như một cụm xử lý lớn. Scale-up domain là vùng tài nguyên có thể mở rộng theo chiều dọc để nhiều bộ tăng tốc hoạt động như một hệ thống thống nhất. Meta cho biết giai đoạn thử nghiệm đã hoàn tất và MTIA 400 đang trên đường được triển khai tại các trung tâm dữ liệu của hãng.

MTIA 450 và 500: tập trung tối đa cho suy luận GenAI

Hai mẫu cao cấp hơn, MTIA 450 và MTIA 500, được Meta thiết kế chuyên biệt cho suy luận GenAI, tức chạy các mô hình AI tạo sinh ở quy mô lớn sau khi đã huấn luyện xong. MTIA 450 tăng gấp đôi băng thông HBM so với MTIA 400, và Meta khẳng định nhờ đó hiệu năng của chip cao hơn đáng kể so với các sản phẩm thương mại dẫn đầu hiện nay. Mẫu này được lên kế hoạch triển khai đại trà vào đầu năm 2027. Trong khi đó, MTIA 500 tiếp tục nâng băng thông HBM thêm 50% so với MTIA 450. Chip dùng cấu hình 2×2 gồm các chiplet tính toán nhỏ hơn, bao quanh bởi nhiều chồng HBM, hai chiplet mạng và một chiplet SoC. SoC, hay System on Chip, là khối tích hợp các thành phần điều khiển quan trọng trên cùng hệ thống. Chiplet SoC này cung cấp kết nối PCIe tới CPU chủ và tới các NIC scale-out. PCIe là chuẩn giao tiếp tốc độ cao phổ biến giữa CPU, GPU và thiết bị tăng tốc, còn NIC là card mạng. Khái niệm scale-out ám chỉ mở rộng theo chiều ngang, tức tăng số lượng máy hoặc nút mạng để nâng tổng năng lực xử lý. Meta dự kiến triển khai đại trà MTIA 500 trong năm 2027.

Mục tiêu ra chip mới mỗi 6 tháng

Điểm đáng chú ý không chỉ nằm ở thông số phần cứng, mà còn ở tốc độ phát triển. Meta cho biết họ đã có năng lực tung ra một thế hệ chip mới khoảng mỗi sáu tháng. Theo công ty, điều này đạt được nhờ cách tiếp cận thiết kế mô-đun và tái sử dụng ở mọi cấp độ, từ chiplet, khung máy, rack cho tới hạ tầng mạng. Cũng vì vậy, ba mẫu MTIA 400, 450 và 500 đều dùng chung chassis, rack và hạ tầng mạng. Chassis có thể hiểu là bộ khung hoặc vỏ hệ thống chứa các thành phần phần cứng. Cách làm này giúp Meta rút ngắn thời gian phát triển, giảm độ phức tạp khi triển khai trong trung tâm dữ liệu và tăng khả năng mở rộng hạ tầng AI.

Quy mô triển khai được đẩy lên mức nhiều gigawatt

Broadcom trước đó cho biết Meta sẽ lắp đặt lượng chip ở quy mô “multiple gigawatts” từ năm 2027 trở đi. Trong ngữ cảnh trung tâm dữ liệu, gigawatt không phải để nói về số lượng chip cụ thể mà phản ánh mức tiêu thụ điện và quy mô vận hành khổng lồ của hạ tầng. Đây là dấu hiệu cho thấy Meta đang bước vào cuộc đua tự chủ silicon AI ở cấp độ rất lớn, cùng xu hướng mà nhiều hãng công nghệ theo đuổi nhằm giảm phụ thuộc vào chip thương mại và tối ưu hóa phần cứng theo đúng tải công việc nội bộ.

Nghịch lý của Meta: chip AI mạnh hơn, kiểm duyệt nội dung giả vẫn yếu

Tuy nhiên, màn phô diễn năng lực bán dẫn của Meta lại diễn ra cùng lúc với một chỉ trích đáng chú ý về khả năng kiểm soát nội dung do AI tạo ra. Hội đồng Giám sát của Meta cho rằng công ty đang làm chưa tốt trong việc gắn nhãn các nội dung AI gây hiểu lầm, đặc biệt trong bối cảnh xung đột. Cơ quan này xem xét một video giả mạo được cho là mô tả cảnh tại Israel trong cuộc chiến kéo dài 12 ngày với Iran vào năm 2025. Dù các đơn vị kiểm chứng độc lập đã xác định đây là nội dung giả và đã có sáu người dùng báo cáo, Meta vẫn không gắn nhãn đây là nội dung AI rủi ro cao. Hội đồng nhận định Meta đã không tự phát hiện các tín hiệu lạm dụng tương tác rõ ràng từ trang đăng tải, đồng thời cho rằng cơ chế phát hiện video giả của hãng chưa đủ mạnh và chưa đủ toàn diện để đối phó với tốc độ lẫn quy mô của nội dung do AI tạo ra, nhất là trong khủng hoảng hoặc chiến sự.

Bài toán kiểm chứng sau khi Meta giảm vai trò bên thứ ba

Trong báo cáo, Hội đồng Giám sát đề nghị Meta bảo đảm các tổ chức kiểm chứng thông tin có đủ nguồn lực và hướng dẫn để ưu tiên nội dung liên quan đến xung đột. Đáng chú ý, Meta trước đó đã thông báo chấm dứt chương trình kiểm chứng bên thứ ba và chuyển trọng tâm sang mô hình dựa nhiều hơn vào báo cáo từ người dùng. Cách tiếp cận này thường được so sánh với mô hình kiểm duyệt nội dung của nền tảng X dưới thời Elon Musk, nơi cộng đồng đóng vai trò lớn hơn trong việc phát hiện và chú thích thông tin sai lệch.

Meta cũng thay đổi cách xử lý thuế dịch vụ số tại châu Âu

Song song với các động thái về AI và kiểm duyệt nội dung, Meta còn công bố một chính sách tài chính mới dành cho nhà quảng cáo tại châu Âu. Công ty sẽ áp dụng một khoản “phí vị trí”, thực chất tương đương mức thuế dịch vụ số tại từng quốc gia. Thuế dịch vụ số, hay Digital Services Tax, là loại thuế mà một số nước áp lên doanh thu từ các dịch vụ số do các tập đoàn công nghệ lớn cung cấp. Ví dụ Meta đưa ra là nếu một nhà quảng cáo mua 100 USD quảng cáo tại Italy, nơi áp thuế 3%, hóa đơn cuối cùng sẽ là 103 USD, gồm 100 USD tiền quảng cáo và 3 USD phí vị trí. Chính sách này sẽ được áp dụng tại Áo, Pháp, Italy, Tây Ban Nha, Thổ Nhĩ Kỳ và Anh.

Thông điệp lớn hơn: Meta muốn làm chủ cả phần cứng lẫn hạ tầng AI

Nhìn tổng thể, loạt chip MTIA mới cho thấy Meta không còn muốn chỉ là khách hàng mua bộ tăng tốc AI từ bên ngoài, mà đang tiến tới vai trò một nhà thiết kế silicon quy mô lớn. Việc dùng kiến trúc chiplet, HBM băng thông cao, kết nối PCIe và mạng scale-up, scale-out cho thấy Meta đang xây dựng một nền tảng phần cứng AI ngày càng hoàn chỉnh, từ chip đơn lẻ tới rack và cụm trung tâm dữ liệu. Nhưng cùng lúc, thách thức lớn của công ty không chỉ là tăng tốc mô hình AI, mà còn là kiểm soát hệ quả xã hội của chính những công nghệ đó. Nói cách khác, Meta có thể đang tiến rất nhanh trong cuộc đua chip AI, nhưng vẫn bị đặt câu hỏi về khả năng quản trị nội dung trong kỷ nguyên AI tạo sinh.