OpenAI chi 10 tỷ USD: Cuộc chơi "tất tay" để khai tử vòng xoay chờ đợi trên ChatGPT
Sam Altman đang đặt cược 10 tỷ USD vào một ván bài công nghệ lớn nhất từ trước đến nay để giải quyết một mục tiêu duy nhất: khai tử vòng tròn xoay "đang suy nghĩ" trên màn hình ChatGPT. Thỏa thuận khổng lồ vừa được ký kết với Cerebras Systems không chỉ là một đơn hàng phần cứng đơn thuần, mà là bước đi chiến lược nhằm tái định nghĩa hạ tầng AI. Thay vì tiếp tục lún sâu vào sự phụ thuộc vào GPU NVIDIA, OpenAI chọn cách tiếp cận cực đoan hơn: triển khai 750 megawatt công suất tính toán dựa trên kiến trúc wafer-scale (quy mô tấm silicon) từ đầu năm 2026 đến năm 2028.
Phá bỏ "bức tường bộ nhớ" bằng kiến trúc chip khổng lồ
Lý do OpenAI chấp nhận chi đậm cho Cerebras nằm ở khả năng phá vỡ "bức tường bộ nhớ" (memory wall) – tử huyệt của các dòng GPU truyền thống. Trong kiến trúc thông thường, chip xử lý và bộ nhớ nằm tách biệt, khiến dữ liệu phải di chuyển qua lại liên tục, tạo ra độ trễ lớn. Cerebras giải quyết triệt để vấn đề này bằng cách đúc toàn bộ hệ thống lên một tấm wafer duy nhất, đưa 44 GB bộ nhớ SRAM trực tiếp lên chip.
Thực tế là khi dữ liệu không còn phải "di chuyển" mà nằm ngay tại chỗ, tốc độ suy luận (inference) sẽ nhảy vọt. Các con số thực tế cho thấy hệ thống của Cerebras có thể cán mốc 3.000 token mỗi giây, bỏ xa mức 465 token của các giải pháp hiện nay. Với người dùng, điều này có nghĩa là một phản hồi phức tạp vốn tốn 30 giây để xử lý giờ đây sẽ hiện ra ngay lập tức trong chưa đầy 3 giây. Trải nghiệm AI sẽ chuyển từ dạng "hỏi - chờ - đáp" sang tương tác thời gian thực đúng nghĩa.
Thoát ly tầm ảnh hưởng của NVIDIA và cuộc đấu với kiến trúc LPU
Thương vụ này đánh dấu nỗ lực quyết liệt của OpenAI trong việc đa dạng hóa nguồn cung phần cứng. Điểm mấu chốt nằm ở chỗ: trong khi NVIDIA vẫn thống trị mảng huấn luyện (training), thì mảng suy luận (inference) đang trở thành một chiến trường mới với những đối thủ chuyên biệt như Cerebras hay Groq.
Dù Groq đang gây tiếng vang lớn với kiến trúc LPU (Language Processing Unit), việc OpenAI chọn Cerebras cho thấy họ ưu tiên quy mô xử lý cực lớn trên một chip đơn khối (monolithic chip). Ông Sachin Katti, đại diện OpenAI, khẳng định chiến lược của hãng là xây dựng danh mục hạ tầng linh hoạt. Việc chọn Cerebras cho các tác vụ cần độ trễ thấp là cách OpenAI tạo ra lợi thế cạnh tranh trước Google – đối thủ vốn đã tự chủ được dòng chip TPU riêng. Đây là một thông điệp rõ ràng: OpenAI sẽ không để bất kỳ "nút thắt cổ chai" nào về phần cứng kìm hãm tốc độ phát triển phần mềm của mình.
Ác mộng kỹ thuật đằng sau con số 750 Megawatt
Nhưng cái giá cho tốc độ siêu việt không hề rẻ, và nó không chỉ nằm ở tiền bạc. Triển khai 750MW công suất tính toán là một thách thức khủng khiếp về mặt kỹ thuật. Chip của Cerebras có kích thước bằng cả một tấm wafer lớn, kéo theo đó là bài toán về tản nhiệt và cung cấp năng lượng.
Vấn đề "dark silicon" – những phần của chip không thể hoạt động hết công suất vì quá nóng – sẽ là bài toán mà các kỹ sư OpenAI và Cerebras phải đối mặt. Việc tích hợp những cỗ máy khổng lồ này vào các trung tâm dữ liệu hiện hữu, vốn được thiết kế cho các máy chủ GPU tiêu chuẩn, sẽ là một "cơn ác mộng" về cơ sở hạ tầng. Ngoài ra, việc duy trì nguồn cung điện năng ổn định 750MW trong bối cảnh cơn khát năng lượng cho AI đang đạt đỉnh là một rủi ro tiềm ẩn có thể làm chậm tiến độ triển khai trong giai đoạn 2026-2028.
AI Agent: Khi tốc độ trở thành năng lượng của nền kinh tế
Tại sao OpenAI lại chấp nhận rủi ro đó? Câu trả lời nằm ở thế hệ AI Agent (tác nhân AI). Một AI Agent không chỉ trả lời câu hỏi, nó phải thực hiện hàng trăm bước suy luận nội bộ: từ tìm kiếm, kiểm tra dữ liệu đến ra quyết định.
Nếu mỗi bước suy luận trên hệ thống cũ mất vài giây, một quy trình tự động hóa phức tạp của doanh nghiệp sẽ bị đình trệ vì phải chờ máy chủ "nghĩ". Với hệ thống Cerebras, quy trình 50 bước có thể rút ngắn từ 2 phút xuống còn 15 giây. Tốc độ phản hồi tức thời chính là chìa khóa để biến AI từ một công cụ trò chuyện thú vị trở thành một hạ tầng năng suất thực thụ, đủ sức vận hành các quy trình kinh doanh cốt lõi trong thời gian thực. Cuộc chơi 10 tỷ USD này, vì vậy, không chỉ là về phần cứng, mà là về việc giành quyền kiểm soát tương lai của nền kinh tế AI.
