GPU Rubin của Nvidia có nguy cơ trễ hẹn vì thiếu bộ nhớ HBM4, trong khi Blackwell nổi lên lấp khoảng trống View Larger Image Rubin đối mặt nguy cơ giao hàng chậm hơn dự kiếnTheo công ty nghiên cứu thị trường TrendForce, dòng GPU Rubin thế hệ tiếp theo của Nvidia có thể ra mắt chậm hơn và xuất xưởng với sản lượng thấp hơn kỳ vọng trong năm 2026. GPU, viết tắt của Graphics Processing Unit, vốn là bộ xử lý đồ họa nhưng hiện đã trở thành nền tảng cốt lõi cho huấn luyện và vận hành trí tuệ nhân tạo. Trước đây, TrendForce dự báo Rubin sẽ chiếm 29% lượng GPU cao cấp của Nvidia trong năm 2026, nhưng nay đã hạ xuống còn 22% do nhiều nút thắt kỹ thuật và chuỗi cung ứng. HBM4, ConnectX-9 và điện năng trở thành điểm nghẽnMột trong những nguyên nhân chính là thời gian kiểm định bộ nhớ HBM4 lâu hơn dự kiến. HBM4, hay High Bandwidth Memory thế hệ 4, là loại bộ nhớ băng thông cực cao được xếp chồng theo chiều dọc để phục vụ các bộ tăng tốc Vision AI cần tốc độ truyền dữ liệu rất lớn. Việc xác thực loại bộ nhớ mới này thường phức tạp vì chỉ cần sai lệch nhỏ cũng có thể ảnh hưởng đến độ ổn định toàn hệ thống. Ngoài ra, Nvidia còn gặp thách thức khi chuyển sang ConnectX-9 NICs, tức các card giao tiếp mạng tốc độ cao do hãng sử dụng để kết nối máy chủ AI trong cụm tính toán. Việc nâng cấp hạ tầng mạng không chỉ liên quan đến phần cứng mà còn ảnh hưởng đến tương thích hệ thống, hiệu năng và độ tin cậy khi triển khai ở quy mô lớn. TrendForce cũng cho biết Rubin tiêu thụ điện năng cao hơn tổng thể, kéo theo yêu cầu làm mát bằng chất lỏng tiên tiến hơn. Đây là công nghệ dùng dung dịch truyền nhiệt thay cho quạt gió truyền thống, ngày càng phổ biến trong trung tâm dữ liệu AI vì mật độ nhiệt của máy chủ hiện đại đã vượt quá khả năng làm mát bằng không khí. Hopper cho thị trường Trung Quốc cũng bị hạ dự báoKhông chỉ Rubin, các bộ tăng tốc Hopper của Nvidia, bao gồm H200 dành cho thị trường Trung Quốc, cũng được dự báo sẽ xuất xưởng ít hơn so với ước tính ban đầu. Hopper là kiến trúc GPU AI thế hệ trước của Nvidia nhưng vẫn rất mạnh cho các tác vụ huấn luyện và suy luận AI. H200 là biến thể cao cấp trong dòng này, nổi bật nhờ dung lượng bộ nhớ lớn và băng thông cao, phù hợp với mô hình ngôn ngữ lớn. Yếu tố địa chính trị tiếp tục phủ bóng lên nguồn cungTrendForce cho rằng căng thẳng địa chính trị Mỹ – Trung tiếp tục là lực cản lớn. Cuối năm ngoái, chính quyền Mỹ cho biết sẽ cho phép ngoại lệ đối với một số quy định xuất khẩu trước đó liên quan đến các bộ tăng tốc AI hiệu năng cao bán sang Trung Quốc. Sau khi được phê duyệt chính thức vào tháng 1, Nvidia có thể lần đầu bán H200 cho khách hàng Trung Quốc, dù phải chia lại 25% doanh thu từ các thương vụ này cho chính phủ Mỹ. Tuy nhiên, quá trình hoàn tất thỏa thuận với phía Bắc Kinh kéo dài nhiều tháng. Tại sự kiện GTC tháng trước, CEO Jensen Huang cho biết Nvidia đang khởi động lại năng lực sản xuất H200 cho thị trường Trung Quốc và đã có đơn đặt hàng trong tay. GTC là hội nghị công nghệ thường niên lớn nhất của Nvidia, nơi hãng công bố chiến lược AI, chip mới và nền tảng trung tâm dữ liệu. Blackwell được kỳ vọng gánh tăng trưởng trong năm nayDù Rubin và Hopper cùng bị điều chỉnh giảm triển vọng, TrendForce nhận định dòng Blackwell sẽ bù đắp phần thiếu hụt. Blackwell là kiến trúc GPU AI mới hơn của Nvidia, được thiết kế để tăng hiệu năng xử lý mô hình AI và tối ưu vận hành trung tâm dữ liệu. Các mẫu như GB300 và B300 được dự báo sẽ chiếm tới 71% tổng lượng GPU Nvidia bán ra trong năm nay. Điều này cho thấy Nvidia nhiều khả năng sẽ tiếp tục dựa vào Blackwell như trụ cột doanh thu ngắn hạn, trong lúc Rubin chưa thể tăng tốc đúng kế hoạch. Groq LPU nổi lên như mảnh ghép mới cho suy luận AIBên cạnh GPU truyền thống, TrendForce cũng tỏ ra lạc quan với nhu cầu dành cho LPU mới được công bố của Groq. LPU, hay Language Processing Unit, là loại chip được tối ưu riêng cho xử lý mô hình ngôn ngữ, đặc biệt ở giai đoạn tạo token trong quá trình suy luận. Token có thể hiểu là các đơn vị văn bản nhỏ mà mô hình AI tạo ra từng bước để hình thành câu trả lời. Khác với GPU thông thường phụ thuộc nhiều vào DRAM, tức bộ nhớ truy cập ngẫu nhiên động nằm ngoài chip, LPU của Groq được thiết kế để không dựa vào kiểu bộ nhớ này. Thay vào đó, chúng tận dụng SRAM trên chip, tức bộ nhớ tĩnh có tốc độ rất cao nhưng dung lượng hạn chế và chi phí đắt hơn. Vì giới hạn SRAM, muốn phục vụ các tác vụ decode ở quy mô lớn thì phải triển khai số lượng chip rất nhiều. Decode là giai đoạn trong pipeline suy luận khi mô hình lần lượt sinh ra các token đầu ra sau khi đã xử lý ngữ cảnh đầu vào. TrendForce dự báo nhu cầu Groq LPU có thể đạt mức vài trăm nghìn đơn vị trong năm nay và tăng gấp đôi vào năm 2027. Rất phù hợp cho tính toán biên – Edge computing trên các dòng mini pc, máy tính công nghiệp mini Giá bộ nhớ tiếp tục leo thang, gây thêm áp lực cho ngành AITrong một diễn biến liên quan, TrendForce cũng cảnh báo giá DRAM tiêu dùng có thể tăng thêm 45-50% trong quý II, sau khi đã tăng 75-80% trong quý I. DRAM là loại bộ nhớ chính được dùng rộng rãi trong PC, máy chủ và nhiều thiết bị điện tử. Các sản phẩm như DDR5 và SSD hiện đã có giá bán cao gấp hơn ba lần so với cùng kỳ năm ngoái. DDR5 là chuẩn RAM thế hệ mới cho máy tính và máy chủ, còn SSD là ổ lưu trữ thể rắn sử dụng chip nhớ flash thay cho đĩa quay truyền thống. Theo giới quan sát, nhu cầu bùng nổ từ hạ tầng AI, cộng với tính chu kỳ vốn có của thị trường bộ nhớ, đang đẩy giá lên mức rất cao. Điều này không chỉ ảnh hưởng tới người tiêu dùng mà còn làm tăng chi phí xây dựng các cụm máy chủ AI, nơi cần lượng lớn bộ nhớ hiệu năng cao. Bức tranh lớn: Nvidia vẫn tăng tốc, nhưng con đường ngày càng phức tạpNhìn tổng thể, báo cáo mới cho thấy Nvidia vẫn giữ vị thế trung tâm trong làn sóng đầu tư AI toàn cầu, nhưng việc đưa sản phẩm mới ra thị trường không còn đơn thuần là câu chuyện thiết kế chip. Từ bộ nhớ HBM4, mạng tốc độ cao, điện năng, làm mát bằng chất lỏng cho tới các ràng buộc xuất khẩu, mọi mắt xích đều có thể làm chậm tiến độ. Nếu Rubin tiếp tục trễ hẹn, Blackwell sẽ là lớp đệm quan trọng giúp Nvidia duy trì đà tăng trưởng. Tuy nhiên, áp lực từ chuỗi cung ứng và giá bộ nhớ tăng mạnh cho thấy cuộc đua AI trong giai đoạn tới sẽ không chỉ xoay quanh sức mạnh tính toán, mà còn là khả năng bảo đảm nguồn linh kiện, kiểm soát chi phí và thích ứng với môi trường địa chính trị đầy biến động. Mini PC – Máy Tính Công Nghiệp IPC AI PC – Máy tính AI Intel F1A | Intel Ultra 7 155H 14.500.000₫ Thêm vào giỏ hàng Details AI PC – Máy tính AI Intel F2A | Intel Ultra 7 155H 14.500.000₫ Thêm vào giỏ hàng Details Máy All In One cho văn phòng – PC Gaming – INTEL i5 12450H 8 lõi 12 luồng 15.500.000₫ Thêm vào giỏ hàng Details Máy all in one giá rẻ – PC Gaming – INTEL I5 10500H 6 lõi 12 luồng 13.700.000₫ Thêm vào giỏ hàng Details Máy tính AI – AI PC | Intel I9-12900H + Nvidia RTX3080 28.500.000₫ Thêm vào giỏ hàng Details Máy tính AI AMD AM18 | Ryzen 7 8845HS + Radeon 780M 14.500.000₫ Thêm vào giỏ hàng Details Máy tính AI PC M1A | Intel I9-13900H + Nvidia RTX-3080 28.500.000₫ Thêm vào giỏ hàng Details Máy tính All In One Optori G40 Pro – PC Gaming – INTEL i5 12450H 14.500.000₫ Thêm vào giỏ hàng Details Màn hình cảm ứng HMI – Panel PC Giải pháp HMI Panel PC chống cháy nổ cho nhà máy sản xuất hiện đại | HazardView HV-17EX-T Details Khi nào cần dùng Panel PC chống cháy nổ thay cho Panel PC công nghiệp thông thường? | HazardView HV-17EX Details Sale! Màn hình cảm ứng HMI – Touch Panel PC BE-PX09 15.6 Inch 21.000.000₫ Giá gốc là: 21.000.000₫.20.200.000₫Giá hiện tại là: 20.200.000₫. Thêm vào giỏ hàng Details Máy tính công nghiệp – Fanless Mini PC Công Nghiệp B8000 10.900.000₫ Thêm vào giỏ hàng Details Máy tính công nghiệp màn hình cảm ứng – Touch Panel HMI QY-P8156 15.6 Inch Details So sánh máy tính công nghiệp chống cháy nổ và máy tính công nghiệp tiêu chuẩn | HazardView HV-238EX Details Xu hướng ứng dụng màn hình HMI chống cháy nổ trong nhà máy thông minh | HazardView HV-19EX-R Details Danh mục máy quét mã vạchDÒNG MÁY CÓ DÂYDÒNG MÁY KHÔNG DÂYDÒNG MÁY KIỂM KHO PDADÒNG MÁY FITMOUNT admin2026-04-11T09:37:07+07:00 Related Posts Amazon úp mở bán cả “rack” chip tự thiết kế khi năng lực AI trên AWS gần kín chỗ Amazon úp mở bán cả “rack” chip tự thiết kế khi năng lực AI trên AWS gần kín chỗ Tháng 4 10th, 2026 Supermicro mở điều tra nội bộ sau cáo buộc chuyển máy chủ AI gắn GPU Nvidia sang Trung Quốc trái quy định Supermicro mở điều tra nội bộ sau cáo buộc chuyển máy chủ AI gắn GPU Nvidia sang Trung Quốc trái quy định Tháng 4 9th, 2026 KubeCon 2026: Chủ quyền số trở thành tâm điểm khi OpenInfra cảnh báo nguy cơ “kill switch” trên hạ tầng trọng yếu KubeCon 2026: Chủ quyền số trở thành tâm điểm khi OpenInfra cảnh báo nguy cơ “kill switch” trên hạ tầng trọng yếu Tháng 4 8th, 2026 UALink tăng tốc đối đầu Nvidia: công bố đặc tả 2.0 dù chip 1.0 còn chưa xuất xưởng UALink tăng tốc đối đầu Nvidia: công bố đặc tả 2.0 dù chip 1.0 còn chưa xuất xưởng Tháng 4 8th, 2026 Intel tham gia Terafab của Elon Musk: siêu nhà máy chip cho AI ngoài không gian hay chỉ là canh bạc mới của làn sóng cường điệu? Intel tham gia Terafab của Elon Musk: siêu nhà máy chip cho AI ngoài không gian hay chỉ là canh bạc mới của làn sóng cường điệu? Tháng 4 8th, 2026