Nvidia tăng tốc với kết nối quang: tham vọng gom hơn 1.000 GPU vào một siêu hệ thống AI trước năm 2028 View Larger Image Từ kỷ nguyên đồng sang thời đại ánh sángNvidia đang chuẩn bị cho một bước ngoặt lớn trong hạ tầng AI khi công bố kế hoạch dùng kết nối quang học, hay photonic interconnects, để mở rộng quy mô hệ thống lên hơn 1.000 GPU trong cùng một miền tính toán vào năm 2028. GPU là bộ xử lý đồ họa nhưng hiện cũng là nền tảng chủ lực để huấn luyện mô hình AI, còn kết nối quang là công nghệ truyền dữ liệu bằng ánh sáng thay vì tín hiệu điện qua dây đồng. Tại GTC, hội nghị công nghệ thường niên của Nvidia, CEO Jensen Huang cho thấy tham vọng này không còn là ý tưởng xa vời mà đã trở thành lộ trình sản phẩm rõ ràng. Vì sao Nvidia buộc phải thay đổiKhi làn sóng AI bùng nổ sau sự xuất hiện của ChatGPT cuối năm 2022, Nvidia sớm nhận ra giới hạn của các hệ thống cũ. Vào thời điểm đó, những cỗ máy mạnh nhất của hãng chỉ chứa khoảng 8 GPU, trong khi việc huấn luyện các mô hình ngôn ngữ lớn cần đến hàng nghìn GPU hoạt động đồng thời. Điều đó buộc Nvidia phải tìm cách tạo ra một “chiếc hộp lớn hơn”, hoặc chính xác hơn là một kiến trúc mạng đủ nhanh để nhiều chip có thể phối hợp như một bộ tăng tốc AI duy nhất. NVL72: đỉnh cao của dây đồng nhưng cũng là giới hạnBước tiến lớn đầu tiên là Grace Blackwell NVL72, hệ thống ra mắt năm 2024 với 72 GPU và 36 node, tiêu thụ tới 120 kilowatt điện. Node ở đây có thể hiểu là một đơn vị máy chủ trong cụm. Hệ thống này dùng NVSwitch, loại chip chuyển mạch tốc độ cao của Nvidia, cùng một backplane bằng đồng, tức bảng kết nối trung tâm chứa rất nhiều cáp đồng, để khiến toàn bộ cụm hoạt động gần như một bộ máy thống nhất. Nvidia chọn đồng vì đây là giải pháp rẻ, ổn định, không cần linh kiện chủ động trên đường truyền và gần như không tiêu thụ điện cho chính sợi cáp. Nhưng đồng có nhược điểm lớn: ở băng thông 1,8 TB/s, tín hiệu chỉ đi được quãng ngắn trước khi suy hao. Đây là lý do các NVSwitch phải đặt sát trung tâm rack, tức tủ máy chủ tiêu chuẩn trong trung tâm dữ liệu. Khi dây đồng không còn đủ xaGiới hạn vật lý của đồng khiến Nvidia phải nhồi càng nhiều GPU càng tốt vào cùng một rack. Tuy nhiên, khi nhu cầu mở rộng tiếp tục tăng, chiến lược này dần chạm trần. Nếu muốn kết nối nhiều rack thành một hệ thống AI thống nhất, Nvidia phải chuyển sang quang học. Khác với đồng, liên kết quang có thể truyền dữ liệu tốc độ cao trên khoảng cách xa hơn nhiều mà ít bị suy hao tín hiệu, rất phù hợp cho các hệ thống AI cỡ siêu lớn. Bài toán khó của module quang cắm rờiCách đơn giản nhất để đưa quang học vào hệ thống là dùng pluggable optics, tức các module quang cắm rời. Đây là những khối linh kiện nhỏ chứa laser, bộ xử lý tín hiệu số và mạch chuyển đổi giữa tín hiệu điện và ánh sáng. Công nghệ này vốn quen thuộc trong mạng trung tâm dữ liệu, nhưng lại không lý tưởng cho kết nối nội bộ siêu tốc như NVLink, giao thức liên kết băng thông cao độc quyền của Nvidia giữa GPU và switch. Để đạt 1,8 TB/s cho mỗi GPU Blackwell, Nvidia sẽ phải dùng tới 18 module 800 Gbps cho mỗi cụm liên kết. Mỗi module chỉ tiêu thụ khoảng 10 đến 15 watt, nhưng nhân lên trên hàng chục GPU thì mức điện năng đội lên rất lớn. Theo Nvidia, cấu hình quang kiểu này từng có thể ngốn thêm khoảng 20.000 watt cho một hệ thống như NVL72. CPO là gì và vì sao nó thay đổi cuộc chơiYếu tố khiến Nvidia quay lại với quang học là sự tiến bộ của CPO, viết tắt của co-packaged optics. Đây là kỹ thuật đặt các thành phần quang ngay sát hoặc tích hợp cùng chip chuyển mạch ASIC, thay vì để trong module cắm rời. ASIC là chip chuyên dụng được tối ưu cho một tác vụ cụ thể, ở đây là chuyển mạch dữ liệu tốc độ cao. Nhờ rút ngắn đường truyền điện và giảm số linh kiện trung gian, CPO giúp hạ điện năng và tăng hiệu quả. Năm 2025, Nvidia đã bắt đầu đưa CPO vào các switch Spectrum Ethernet và Quantum InfiniBand. Ethernet là chuẩn mạng phổ biến nhất hiện nay, còn InfiniBand là công nghệ mạng hiệu năng cao thường dùng trong siêu máy tính và cụm AI. NVLink bước vào giai đoạn quang hóaTại GTC 2026, Jensen Huang giới thiệu hai cấu hình mới là Vera Rubin NVL576 và Rosa Feynman NVL1152. Con số trong tên gọi thể hiện số lượng GPU trong hệ thống. Cả hai đều hướng tới mở rộng miền tính toán bằng quang học, cho phép nhiều rack hoạt động như một khối AI thống nhất. Với Vera Rubin NVL576, Nvidia dự kiến kết hợp cả đồng lẫn quang. Lớp kết nối đầu tiên trong rack vẫn dùng đồng để tránh phải thay đổi thiết kế GPU hiện tại, còn lớp spine, tức tầng xương sống kết nối giữa các rack hoặc các nhánh mạng lớn, sẽ dùng liên kết quang. Kiến trúc mạng nhiều tầng và lựa chọn NPODù Nvidia chưa công bố đầy đủ sơ đồ mạng, một mô hình có thể phù hợp là fat tree hai tầng. Fat tree là kiểu topology mạng được thiết kế để duy trì băng thông cao giữa nhiều nút bằng cách tăng số liên kết ở các tầng trên. Trong kịch bản này, Nvidia có thể dùng một tầng switch trong rack và một tầng spine riêng để mở rộng ra nhiều rack. Ngoài module cắm rời, hãng cũng có thể cân nhắc NPO, tức near-packaged optics, dạng quang học đặt rất gần chip nhưng chưa tích hợp chặt như CPO. NPO được xem là giải pháp trung gian giữa pluggable optics và CPO, giúp cân bằng giữa hiệu suất, nhiệt độ và khả năng bảo trì. Feynman 2028: tham vọng lớn hơn với NVL1152Điểm hấp dẫn nhất nằm ở thế hệ Feynman, dự kiến xuất xưởng vào nửa cuối năm 2028. Nvidia cho biết các hệ thống này sẽ có tùy chọn NVLink dùng đồng hoặc NVLink quang tích hợp CPO. Có hai khả năng đáng chú ý. Thứ nhất, Nvidia chỉ tích hợp CPO vào chip switch NVLink, còn trong rack vẫn dùng đồng. Cách này giúp hãng linh hoạt tạo nhiều cấu hình bằng cách thay khay switch hoặc thêm rack spine. Thứ hai, táo bạo hơn, Nvidia có thể tích hợp CPO không chỉ vào switch mà cả vào gói chip GPU. Nếu thành hiện thực, điều này có thể giảm kiến trúc mạng xuống còn một tầng, từ đó giảm độ trễ, tức thời gian dữ liệu di chuyển giữa các bộ xử lý. Vì sao mạng một tầng lại quan trọngTrong các hệ thống scale-up, tức mở rộng bằng cách gom nhiều bộ xử lý vào một miền tính toán thống nhất, số tầng mạng càng ít thì độ trễ càng thấp. Độ trễ là yếu tố then chốt với Vision AI vì hàng nghìn GPU phải trao đổi dữ liệu liên tục trong quá trình huấn luyện. Một fabric tính toán một tầng, nghĩa là mạng nội bộ kết nối trực tiếp hơn giữa các GPU và switch, sẽ giúp mô hình chạy hiệu quả hơn. Tuy nhiên, để xây được hệ thống NLV 5201 một tầng, Nvidia cần loại switch có radix rất cao. Radix là số lượng cổng kết nối mà một switch có thể hỗ trợ, và đây là thách thức kỹ thuật không nhỏ. Nvidia chi hàng tỷ USD để khóa chuỗi cung ứng quang họcTham vọng quang hóa hạ tầng AI không thể thành công nếu thiếu nguồn cung linh kiện. Vì vậy trong thời gian ngắn gần đây, Nvidia đã rót hàng tỷ USD vào các công ty như Coherent và Lumentum, hai tên tuổi lớn trong mảng laser quang học. Dù CPO đưa phần lớn thành phần quang lên sát chip, laser thường vẫn được tách riêng để dễ thay thế và bảo trì. Nvidia cũng bắt tay với Marvell trong một thỏa thuận trị giá 2 tỷ USD nhằm phát triển NVLink Fusion và công nghệ optical I/O, tức giao tiếp vào ra bằng quang học. NVLink Fusion là phiên bản cấp phép của công nghệ kết nối tốc độ cao NVLink để tích hợp vào các bộ xử lý tùy biến, còn XPU là khái niệm chỉ các bộ xử lý tăng tốc đa dạng, có thể là CPU, GPU hoặc chip chuyên dụng AI. Marvell, Celestial AI và cơ hội tạo mạng bộ nhớ liên rackMột chi tiết đáng chú ý là thương vụ Marvell mua Celestial AI với giá 3,25 tỷ USD có thể mở ra hướng đi mới cho Nvidia. Celestial AI phát triển công nghệ interconnect quang có thể dùng để xây dựng coherent memory network, tức mạng bộ nhớ đồng bộ giữa nhiều rack. Nói đơn giản, đây là cách để các hệ thống ở nhiều tủ máy chủ khác nhau truy cập tài nguyên bộ nhớ gần như liền mạch hơn, điều rất hấp dẫn với các cụm AI cỡ lớn. Không chỉ Nvidia, các nhà cung cấp đám mây như AWS cũng có thể hưởng lợi, đặc biệt khi AWS đã là khách hàng lớn của NVLink Fusion và dự kiến dùng công nghệ này trong các cụm Trainium4 thế hệ mới. Thông điệp rõ ràng: tương lai mở rộng AI sẽ đi bằng ánh sángTất cả dấu hiệu cho thấy Nvidia đã chính thức chuyển từ tư duy “đồng là đủ” sang chiến lược kết hợp đồng và quang để tiếp tục mở rộng AI ở quy mô cực lớn. Trong ngắn hạn, đồng vẫn giữ vai trò quan trọng bên trong rack nhờ chi phí thấp và độ tin cậy cao. Nhưng khi mục tiêu là hàng trăm đến hơn một nghìn GPU trong cùng một hệ thống, quang học và đặc biệt là CPO gần như là con đường không thể tránh khỏi. Nếu lộ trình này diễn ra đúng kế hoạch, đến năm 2028 Nvidia có thể định nghĩa lại cách các siêu hệ thống AI được xây dựng, từ cấu trúc mạng, hiệu suất năng lượng cho tới toàn bộ chuỗi cung ứng bán dẫn và quang tử. Mini PC – Máy Tính Công Nghiệp IPC AI PC – Máy tính AI Intel F1A | Intel Ultra 7 155H 14.500.000₫ Thêm vào giỏ hàng Details AI PC – Máy tính AI Intel F2A | Intel Ultra 7 155H 14.500.000₫ Thêm vào giỏ hàng Details Máy All In One cho văn phòng – PC Gaming – INTEL i5 12450H 8 lõi 12 luồng 15.500.000₫ Thêm vào giỏ hàng Details Máy all in one giá rẻ – PC Gaming – INTEL I5 10500H 6 lõi 12 luồng 13.700.000₫ Thêm vào giỏ hàng Details Máy tính AI – AI PC | Intel I9-12900H + Nvidia RTX3080 28.500.000₫ Thêm vào giỏ hàng Details Máy tính AI AMD AM18 | Ryzen 7 8845HS + Radeon 780M 14.500.000₫ Thêm vào giỏ hàng Details Máy tính AI PC M1A | Intel I9-13900H + Nvidia RTX-3080 28.500.000₫ Thêm vào giỏ hàng Details Máy tính All In One Optori G40 Pro – PC Gaming – INTEL i5 12450H 14.500.000₫ Thêm vào giỏ hàng Details Màn hình cảm ứng HMI – Panel PC Giải pháp HMI Panel PC chống cháy nổ cho nhà máy sản xuất hiện đại | HazardView HV-17EX-T Details Khi nào cần dùng Panel PC chống cháy nổ thay cho Panel PC công nghiệp thông thường? | HazardView HV-17EX Details Sale! Màn hình cảm ứng HMI – Touch Panel PC BE-PX09 15.6 Inch 21.000.000₫ Giá gốc là: 21.000.000₫.20.200.000₫Giá hiện tại là: 20.200.000₫. Thêm vào giỏ hàng Details Máy tính công nghiệp – Fanless Mini PC Công Nghiệp B8000 10.900.000₫ Thêm vào giỏ hàng Details Máy tính công nghiệp màn hình cảm ứng – Touch Panel HMI QY-P8156 15.6 Inch Details So sánh máy tính công nghiệp chống cháy nổ và máy tính công nghiệp tiêu chuẩn | HazardView HV-238EX Details Xu hướng ứng dụng màn hình HMI chống cháy nổ trong nhà máy thông minh | HazardView HV-19EX-R Details Danh mục máy quét mã vạchDÒNG MÁY CÓ DÂYDÒNG MÁY KHÔNG DÂYDÒNG MÁY KIỂM KHO PDADÒNG MÁY FITMOUNT admin2026-04-05T22:07:12+07:00 Related Posts Màn hình cảm ứng HMI dùng phần mềm gì để lập trình? Màn hình cảm ứng HMI dùng phần mềm gì để lập trình? Tháng 4 6th, 2026 Hướng dẫn kết nối màn hình cảm ứng HMI với PLC Modbus Hướng dẫn kết nối màn hình cảm ứng HMI với PLC Modbus Tháng 4 5th, 2026 Top màn hình cảm ứng HMI cho tủ điện nhà máy nên chọn Top màn hình cảm ứng HMI cho tủ điện nhà máy nên chọn Tháng 4 4th, 2026 Máy tính công nghiệp màn hình cảm ứng cho SCADA/MES Máy tính công nghiệp màn hình cảm ứng cho SCADA/MES Tháng 4 3rd, 2026 IBM bắt tay Arm đưa phần mềm Arm lên mainframe, mở đường cho AI chạy trên IBM Z và LinuxONE IBM bắt tay Arm đưa phần mềm Arm lên mainframe, mở đường cho AI chạy trên IBM Z và LinuxONE Tháng 4 3rd, 2026