Groq, đối thủ chip AI Nvidia, gọi vốn 6.9 tỷ USD vượt kỳ vọng

Trong bối cảnh trí tuệ nhân tạo (AI) đang bùng nổ mạnh mẽ, cuộc đua công nghệ chip AI ngày càng nóng hơn bao giờ hết. Giữa lúc Nvidia đang thống trị thị trường với những con chip GPU mạnh mẽ, một cái tên mới nổi đang thu hút sự chú ý đặc biệt: Groq. Startup này vừa chính thức xác nhận đã huy động thành công 750 triệu USD tiền tài trợ mới, nâng mức định giá sau đầu tư lên tới 6.9 tỷ USD. Con số này không chỉ vượt xa kỳ vọng ban đầu (khoảng 600 triệu USD và định giá gần 6 tỷ USD hồi tháng 7 năm ngoái) mà còn cho thấy sự tin tưởng rất lớn của giới đầu tư vào tiềm năng đột phá của Groq.

Điều đáng nói là chỉ cách đây khoảng một năm, Groq từng gọi vốn 640 triệu USD với định giá 2.8 tỷ USD. Việc định giá tăng gấp đôi chỉ trong một thời gian ngắn là minh chứng rõ ràng cho tốc độ phát triển chóng mặt và vị thế ngày càng vững chắc của công ty. Theo ước tính của PitchBook, Groq hiện đã huy động được tổng cộng hơn 3 tỷ USD. Vậy điều gì đã khiến Groq trở thành một “món hàng nóng” như vậy, và tại sao nó được coi là đối thủ đáng gờm của gã khổng lồ Nvidia? Câu trả lời nằm ở công nghệ chip độc đáo của Groq, được thiết kế để phá vỡ thế độc quyền của Nvidia trong ngành công nghiệp AI, mang lại hiệu suất vượt trội với chi phí thấp hơn đáng kể.

Groq: LPU và tầm nhìn phá vỡ thế độc quyền của chip AI

Groq không sử dụng GPU (Graphics Processing Units) như Nvidia, mà thay vào đó, họ phát triển một loại chip hoàn toàn mới mà họ gọi là LPU (Language Processing Units). Đây là những bộ xử lý chuyên biệt, được tối ưu hóa cho việc chạy các mô hình AI một cách nhanh chóng và hiệu quả, đặc biệt là các mô hình ngôn ngữ lớn (LLM) và các tác vụ suy luận (inference) của AI. Groq gọi phần cứng của mình là “công cụ suy luận” (inference engine) – một hệ thống máy tính chuyên dụng được thiết kế từ đầu để xử lý các yêu cầu AI tức thì với độ trễ cực thấp. Điều này đặc biệt quan trọng khi người dùng cần phản hồi AI nhanh chóng, chẳng hạn như trong các ứng dụng chatbot, dịch thuật thời gian thực hoặc các hệ thống khuyến nghị.

Người sáng lập Groq, Jonathan Ross, sở hữu một lý lịch cực kỳ phù hợp với công việc này. Trước đây, Ross từng làm việc tại Google, nơi ông đóng vai trò quan trọng trong việc phát triển chip TPU (Tensor Processing Unit) – một loại bộ xử lý chuyên biệt khác được thiết kế cho các tác vụ học máy. TPU của Google được công bố vào năm 2016, cùng năm Groq ra mắt. Cho đến nay, TPU vẫn là trái tim của các dịch vụ AI trên Google Cloud, cho thấy kinh nghiệm sâu rộng của Ross trong việc tạo ra phần cứng AI chuyên dụng. Với LPUs, Groq đang áp dụng triết lý tương tự nhưng với cách tiếp cận riêng, nhằm mang lại hiệu suất và hiệu quả vượt trội so với các giải pháp hiện có.

Các sản phẩm của Groq hướng đến đối tượng nhà phát triển và doanh nghiệp, có sẵn dưới dạng dịch vụ đám mây hoặc cụm phần cứng tại chỗ (on-premises hardware cluster). Cụm phần cứng tại chỗ là một tủ rack máy chủ được trang bị một chồng các nút phần cứng/phần mềm tích hợp của Groq. Cả dịch vụ đám mây và phần cứng tại chỗ đều có thể chạy các phiên bản mở của nhiều mô hình AI phổ biến từ các nhà phát triển lớn như Meta, DeepSeek, Qwen, Mistral, Google và OpenAI. Groq khẳng định rằng các giải pháp của họ không chỉ duy trì mà trong một số trường hợp còn cải thiện hiệu suất AI, đồng thời giảm đáng kể chi phí so với các lựa chọn thay thế. Điều này đã giúp Groq thu hút được một lượng lớn người dùng: hiện tại, công ty cho biết họ đang hỗ trợ các ứng dụng AI của hơn 2 triệu nhà phát triển, tăng vọt từ con số 356.000 nhà phát triển mà công ty công bố cách đây một năm. Sự tăng trưởng ấn tượng này là minh chứng rõ ràng cho khả năng của Groq trong việc cung cấp một giải pháp chip AI thực sự hiệu quả và hấp dẫn trên thị trường.