Startup trong hệ sinh thái Nvidia giới thiệu concept Infinity Cube: Tích hợp 224 GPU B200 trong khối module 4 mét
Tại triển lãm công nghệ CES 2026 đang diễn ra, Odinn – một đối tác trong hệ sinh thái của Nvidia – đã thu hút sự quan tâm lớn khi trưng bày "Infinity Cube". Đây là mô hình ý tưởng về một trung tâm dữ liệu mô-đun cao 4,2 mét, được thiết kế nhằm thách thức những giới hạn về mật độ tính toán và cách thức vận hành hạ tầng AI truyền thống. Thay vì dàn trải trong những phòng máy rộng lớn, Infinity Cube tập hợp sức mạnh của 224 GPU Nvidia Blackwell B200 cùng 86TB RAM DDR5 vào một khối lập phương sử dụng hệ thống tản nhiệt chất lỏng khép kín.
Thử nghiệm giới hạn về mật độ linh kiện
Infinity Cube không đơn thuần là một giải pháp mang tính thẩm mỹ cho trung tâm dữ liệu; đây là bài toán thực nghiệm về việc nén chặt phần cứng ở mức độ cực đoan. Cấu trúc bên trong khối lập phương này bao gồm 56 bộ xử lý AMD EPYC 9845 với tổng cộng 8.960 lõi CPU. Sức mạnh tính toán đồ họa được đảm nhiệm bởi 224 đơn vị Nvidia HGX B200, cung cấp tổng dung lượng bộ nhớ VRAM lên đến 43TB.
Khả năng lưu trữ và bộ nhớ của hệ thống cũng duy trì ở thông số lớn với 86TB RAM DDR5 ECC Registered và dung lượng ổ cứng NVMe đạt 27,5PB. Để quản lý khối lượng phần cứng này, Odinn chia nhỏ hệ thống thành các đơn vị Omnia có khả năng tháo lắp nóng (hot-swappable). Mỗi đơn vị Omnia nặng khoảng 37kg, tích hợp sẵn màn hình 4K 23,8 inch cùng bàn phím gập, cho phép các kỹ sư có thể tương tác trực tiếp như một máy trạm độc lập hoặc kết nối chúng thành một cụm siêu máy tính thống nhất bên trong khung vỏ Infinity Cube.
Bài toán hạ tầng và những dấu hỏi về tính thực tế
Sự xuất hiện của Infinity Cube giải quyết một nghịch lý đang tồn tại trong các trung tâm dữ liệu hiện nay: nhu cầu tính toán tăng vọt trong khi diện tích mặt sàn và hạ tầng làm mát truyền thống đã chạm ngưỡng giới hạn. Bằng cách sử dụng hệ thống tản nhiệt chất lỏng vòng lặp khép kín, Odinn đặt mục tiêu loại bỏ sự phụ thuộc vào sàn nâng (raised floors) hay các hệ thống điều hòa quy mô lớn.
Về lý thuyết, thiết kế này cho phép triển khai hạ tầng AI cấp độ siêu máy tính trong những không gian vật lý hạn chế. Dựa trên kiến trúc Blackwell B200, hệ thống này được kỳ vọng sẽ mang lại hiệu suất suy luận thời gian thực vượt trội so với các thế hệ trước. Tuy nhiên, giới quan sát vẫn đặt ra nhiều nghi vấn về tính khả thi khi vận hành thực tế. Với 224 GPU công suất cao tập trung trong một diện tích hẹp, tổng điện năng tiêu thụ có thể lên tới hàng trăm kW – một mức tải mà không phải hạ tầng điện lưới dân dụng hay văn phòng nào cũng có thể đáp ứng ngay lập tức. Bên cạnh đó, việc giải nhiệt "vòng lặp khép kín" thực tế vẫn cần một cơ chế xả nhiệt ra môi trường bên ngoài để tránh tình trạng tích tụ nhiệt độ trong không gian hẹp.
Phần mềm điều phối và khả năng thương mại hóa
Để vận hành một hệ thống có mật độ linh kiện dày đặc, Odinn giới thiệu lớp phần mềm quản trị NeuroEdge. Đây đóng vai trò là hệ điều hành điều phối khối lượng công việc trên toàn bộ cụm máy tính, kết nối trực tiếp với hệ sinh thái phần mềm AI của Nvidia để tự động hóa việc lập lịch và triển khai mô hình.
Mục tiêu của NeuroEdge là đơn giản hóa quá trình vận hành phức tạp của phần cứng thành các thao tác quản lý trực quan. Dù vậy, hiệu quả thực tế của giải pháp này vẫn cần thời gian kiểm chứng, đặc biệt là khả năng ổn định khi xử lý các tác vụ AI cường độ cao liên tục.
Về chi phí, mặc dù Odinn chưa công bố con số chính thức, nhưng giới chuyên môn nhận định giá trị của một khối Infinity Cube đầy đủ cấu hình sẽ lên tới hàng triệu USD, xét trên việc mỗi chip B200 đơn lẻ đã có giá hàng chục nghìn USD. Đây rõ ràng không phải là giải pháp dành cho số đông mà là một phương án chuyên biệt cho các tổ chức cần năng lực tính toán tại chỗ (on-premise) ở mức cao nhất. Sự xuất hiện của Infinity Cube tại CES 2026 cho thấy một xu hướng mới: dịch chuyển từ các trung tâm dữ liệu tập trung quy mô lớn sang các cụm tính toán mật độ cao, nơi hiệu suất được ưu tiên tối đa trong một không gian tối thiểu.
