Mức tăng 27% của Nvidia trong tháng 5 đã đẩy vốn hóa thị trường của công ty lên 2,7 nghìn tỷ USD, chỉ sau Microsoft và Apple trong số những công ty đại chúng có giá trị nhất thế giới. Nhà sản xuất chip này đã báo cáo doanh số bán hàng tăng gấp ba lần so với cùng kỳ năm trước trong quý thứ ba liên tiếp do nhu cầu về bộ xử lý trí tuệ nhân tạo của họ tăng vọt.
Mizuho Securities ước tính Nvidia kiểm soát từ 70% đến 95% thị trường chip AI dùng để đào tạo và triển khai các mô hình như GPT của OpenAI. Nhấn mạnh sức mạnh định giá của Nvidia là tỷ suất lợi nhuận gộp 78%, một con số cao đáng kinh ngạc đối với một công ty phần cứng phải sản xuất và vận chuyển các sản phẩm vật chất.
Các nhà sản xuất chip đối thủ Intel và Advanced Micro Devices báo cáo tỷ suất lợi nhuận gộp trong quý gần nhất lần lượt là 41% và 47%.
Vị trí của Nvidia trên thị trường chip AI đã được một số chuyên gia mô tả như một con hào. Các bộ xử lý đồ họa (GPU) AI hàng đầu của nó, chẳng hạn như H100, kết hợp với phần mềm CUDA của công ty đã dẫn đến sự khởi đầu thuận lợi trong cuộc cạnh tranh đến mức việc chuyển sang một giải pháp thay thế dường như gần như không thể tưởng tượng được.
Tuy nhiên, Giám đốc điều hành Nvidia Jensen Huang, người có tài sản ròng đã tăng từ 3 tỷ USD lên khoảng 90 tỷ USD trong 5 năm qua, cho biết ông “lo lắng và lo ngại” về việc công ty 31 tuổi của mình mất đi lợi thế. Ông thừa nhận tại một hội nghị cuối năm ngoái rằng có rất nhiều đối thủ cạnh tranh mạnh mẽ đang gia tăng. “Tôi không nghĩ mọi người đang cố gắng loại bỏ công việc kinh doanh của tôi,” Huang nói vào tháng 11. “Có lẽ tôi biết họ đang cố gắng làm vậy, nên chuyện đó lại khác.”
Nvidia đã cam kết phát hành kiến trúc chip AI mới hàng năm, thay vì cách năm như thường lệ và đưa ra phần mềm mới có thể đưa chip của họ đi sâu hơn vào phần mềm AI.
Nhưng GPU của Nvidia không đơn độc có khả năng chạy phép toán phức tạp làm nền tảng cho AI sáng tạo. Nếu những con chip kém mạnh hơn có thể thực hiện công việc tương tự, Huang có thể bị hoang tưởng một cách chính đáng.
Việc chuyển đổi từ đào tạo các mô hình AI sang cái gọi là suy luận - hoặc triển khai các mô hình - cũng có thể mang đến cho các công ty cơ hội thay thế GPU của Nvidia, đặc biệt nếu chúng rẻ hơn để mua và vận hành. Con chip hàng đầu của Nvidia có giá khoảng 30.000 USD trở lên, mang lại cho khách hàng nhiều động lực để tìm kiếm giải pháp thay thế.
Sid Sheth, đồng sáng lập của đối thủ đầy tham vọng D-Matrix, cho biết: “Nvidia muốn có 100%, nhưng khách hàng sẽ không thích Nvidia có 100%. “Đó là một cơ hội quá lớn. Sẽ là quá không lành mạnh nếu bất kỳ một công ty nào lấy đi tất cả.”
Được thành lập vào năm 2019, D-Matrix có kế hoạch phát hành thẻ bán dẫn cho máy chủ vào cuối năm nay nhằm mục đích giảm chi phí và độ trễ khi chạy các mô hình AI. Công ty đã huy động được 110 triệu USD vào tháng 9.
Ngoài D-Matrix, các công ty từ các tập đoàn đa quốc gia đến các công ty khởi nghiệp non trẻ đang tranh giành một phần thị trường chip AI có thể đạt doanh thu hàng năm 400 tỷ USD trong 5 năm tới, theo các nhà phân tích thị trường và AMD. Nvidia đã tạo ra doanh thu khoảng 80 tỷ USD trong 4 quý vừa qua và Bank of America ước tính công ty đã bán được 34,5 tỷ USD chip AI vào năm ngoái.
Nhiều công ty sử dụng GPU của Nvidia đang đặt cược rằng một kiến trúc khác hoặc sự đánh đổi nhất định có thể tạo ra con chip tốt hơn cho các tác vụ cụ thể. Các nhà sản xuất thiết bị cũng đang phát triển công nghệ có thể thực hiện nhiều tính toán cho AI hiện đang diễn ra trong các cụm dựa trên GPU lớn trên đám mây.
Fernando Vidal, đồng sáng lập của 3Fourteen Research, cho biết: “Không ai có thể phủ nhận rằng ngày nay Nvidia là phần cứng mà bạn muốn đào tạo và chạy các mô hình AI”. “Nhưng đã có những tiến bộ ngày càng tăng trong việc san bằng sân chơi, từ những công ty siêu quy mô làm việc trên chip của riêng họ, cho đến cả những công ty khởi nghiệp nhỏ, thiết kế silicon của riêng họ.”
Giám đốc điều hành AMD Lisa Su muốn các nhà đầu tư tin rằng có rất nhiều cơ hội cho nhiều công ty thành công trong lĩnh vực này.
“Điều quan trọng là có rất nhiều lựa chọn ở đó”, bà Su nói với các phóng viên vào tháng 12, khi công ty của cô tung ra chip AI gần đây nhất. “Tôi nghĩ chúng ta sẽ chứng kiến một tình huống không chỉ có một giải pháp mà sẽ có nhiều giải pháp.”
Các nhà sản xuất chip lớn khác
AMD sản xuất GPU để chơi game và giống như Nvidia, đang điều chỉnh chúng cho AI bên trong các trung tâm dữ liệu. Con chip hàng đầu của nó là Instinct MI300X. Microsoft đã mua bộ xử lý AMD, cung cấp quyền truy cập vào chúng thông qua đám mây Azure.
Khi ra mắt, bà Su đã nhấn mạnh sự xuất sắc của con chip trong khả năng suy luận, trái ngược với việc cạnh tranh với Nvidia về đào tạo. Tuần trước, Microsoft cho biết họ đang sử dụng GPU AMD Instinct để phục vụ các mẫu Copilot của mình. Các nhà phân tích của Morgan Stanley coi tin này là dấu hiệu cho thấy doanh số bán chip AI của AMD có thể vượt 4 tỷ USD trong năm nay, mục tiêu công khai của công ty.
Intel, công ty đã bị Nvidia vượt qua vào năm ngoái về mặt doanh thu, cũng đang cố gắng thiết lập sự hiện diện trong lĩnh vực AI. Công ty gần đây đã công bố phiên bản thứ ba của máy tăng tốc AI, Gaudi 3. Lần này Intel đã so sánh trực tiếp nó với đối thủ, mô tả nó là một giải pháp thay thế hiệu quả hơn về mặt chi phí và tốt hơn H100 của Nvidia về khả năng chạy suy luận, đồng thời nhanh hơn trong việc đào tạo các mô hình .
Các nhà phân tích của Bank of America ước tính gần đây rằng Intel sẽ chiếm chưa đến 1% thị trường chip AI trong năm nay. Intel cho biết họ có đơn hàng tồn đọng trị giá 2 tỷ USD cho con chip này.
Rào cản chính cho việc áp dụng rộng rãi hơn có thể là phần mềm. AMD và Intel đều đang tham gia vào một nhóm công nghiệp lớn có tên là UXL Foundation, trong đó có Google, đang nỗ lực tạo ra các lựa chọn thay thế miễn phí cho CUDA của Nvidia để kiểm soát phần cứng cho các ứng dụng AI.
Khách hàng hàng đầu của Nvidia
Một thách thức tiềm tàng đối với Nvidia là hãng đang phải cạnh tranh với một số khách hàng lớn nhất của mình. Các nhà cung cấp đám mây bao gồm Google, Microsoft và Amazon đều là những bộ xử lý xây dựng để sử dụng nội bộ. Ba Big Tech, cộng với Oracle, chiếm hơn 40% doanh thu của Nvidia.
Amazon đã giới thiệu chip định hướng AI của riêng mình vào năm 2018, dưới thương hiệu Inferentia. Inferentia hiện đã có phiên bản thứ hai. Vào năm 2021, Amazon Web Services ra mắt Tranium nhằm mục đích đào tạo. Khách hàng không thể mua chip nhưng họ có thể thuê hệ thống thông qua AWS, nơi tiếp thị chip tiết kiệm chi phí hơn so với của Nvidia.
Google có lẽ là nhà cung cấp đám mây tận tâm nhất với silicon của riêng mình. Công ty đã sử dụng cái mà họ gọi là Bộ xử lý Tensor (TPU) từ năm 2015 để đào tạo và triển khai các mô hình AI. Vào tháng 5, Google đã công bố phiên bản thứ sáu của chip, Trillium, mà công ty cho biết đã được sử dụng để phát triển các mẫu chip của mình, bao gồm cả Gemini và Imagen.
Google cũng sử dụng chip Nvidia và cung cấp chúng thông qua đám mây của mình.
Microsoft không còn xa nữa. Công ty cho biết năm ngoái rằng họ đang xây dựng bộ xử lý và tăng tốc AI của riêng mình, được gọi là Maia và Cobalt.
Meta không phải là nhà cung cấp đám mây, nhưng công ty cần một lượng lớn sức mạnh tính toán để chạy phần mềm và trang web cũng như phân phát quảng cáo. Trong khi công ty mẹ Facebook đang mua bộ xử lý Nvidia trị giá hàng tỷ đô la, họ cho biết vào tháng 4 rằng một số chip cây nhà lá vườn của họ đã có mặt trong các trung tâm dữ liệu và mang lại “hiệu quả cao hơn” so với GPU.
Các nhà phân tích của JPMorgan ước tính vào tháng 5 rằng thị trường xây dựng chip tùy chỉnh cho các nhà cung cấp đám mây lớn có thể trị giá tới 30 tỷ USD, với tiềm năng tăng trưởng 20% mỗi năm.
Các công ty khởi nghiệp
Các nhà đầu tư mạo hiểm nhìn thấy cơ hội cho các công ty mới nổi nhảy vào cuộc chơi. Theo dữ liệu từ PitchBook, họ đã đầu tư 6 tỷ USD vào các công ty bán dẫn AI vào năm 2023, tăng nhẹ so với 5,7 tỷ USD một năm trước đó.
Đây là một lĩnh vực khó khăn đối với các công ty khởi nghiệp vì thiết kế, phát triển và sản xuất chất bán dẫn rất tốn kém. Nhưng có những cơ hội cho sự khác biệt.
Đối với Cerebras Systems, một nhà sản xuất chip AI ở Thung lũng Silicon, trọng tâm là các hoạt động cơ bản và các điểm nghẽn cho AI, so với bản chất mục đích chung hơn của GPU. Theo Bloomberg, công ty được thành lập vào năm 2015 và được định giá 4 tỷ USD trong lần gây quỹ gần đây nhất.
Giám đốc điều hành Andrew Feldman cho biết, chip Cerebras, WSE-2, đưa khả năng GPU cũng như bộ xử lý trung tâm và bộ nhớ bổ sung vào một thiết bị duy nhất, điều này tốt hơn cho việc đào tạo các mô hình lớn.
Feldman nói: “Chúng tôi sử dụng một con chip khổng lồ, họ sử dụng rất nhiều con chip nhỏ. “Họ gặp khó khăn trong việc di chuyển dữ liệu, còn chúng tôi thì không.”
Feldman cho biết công ty của ông, bao gồm Mayo Clinic, GlaxoSmithKline và Quân đội Hoa Kỳ với tư cách là khách hàng, đang giành được hợp đồng kinh doanh cho các hệ thống siêu máy tính của mình, thậm chí còn đối đầu với Nvidia.
Feldman nói: “Có rất nhiều sự cạnh tranh và tôi nghĩ điều đó có lợi cho hệ sinh thái.
Sheth từ D-Matrix cho biết công ty của ông có kế hoạch phát hành một thẻ có chiplet vào cuối năm nay, cho phép thực hiện nhiều tính toán hơn trong bộ nhớ, thay vì trên một con chip như GPU. Sản phẩm của D-Matrix có thể được đưa vào máy chủ AI cùng với các GPU hiện có, nhưng nó giúp giảm bớt công việc của chip Nvidia và giúp giảm chi phí cho AI tạo ra.
Sheth cho biết: Khách hàng “rất dễ tiếp thu và được khuyến khích đưa một giải pháp mới ra thị trường”.
Apple và Qualcomm
Mối đe dọa lớn nhất đối với hoạt động kinh doanh trung tâm dữ liệu của Nvidia có thể là sự thay đổi về nơi diễn ra quá trình xử lý.
Các nhà phát triển đang ngày càng đặt cược rằng công việc AI sẽ chuyển từ trang trại máy chủ sang máy tính xách tay, PC và điện thoại mà chúng ta sở hữu.
Các mô hình lớn như mô hình do OpenAI phát triển yêu cầu các cụm GPU mạnh mẽ để suy luận, nhưng các công ty như Apple và Microsoft đang phát triển “các mô hình nhỏ” yêu cầu ít năng lượng và dữ liệu hơn và có thể chạy trên thiết bị chạy bằng pin. Chúng có thể không thành thạo như phiên bản ChatGPT mới nhất, nhưng chúng thực hiện những ứng dụng khác, chẳng hạn như tóm tắt văn bản hoặc tìm kiếm bằng hình ảnh.
Apple và Qualcomm đang cập nhật chip của họ để chạy AI hiệu quả hơn, bổ sung các phần chuyên biệt cho các mô hình AI được gọi là bộ xử lý thần kinh, có thể mang lại lợi thế về quyền riêng tư và tốc độ.
Qualcomm gần đây đã công bố một chip PC sẽ cho phép máy tính xách tay chạy các dịch vụ Microsoft AI trên thiết bị. Công ty cũng đã đầu tư vào một số nhà sản xuất chip sản xuất bộ xử lý tiêu thụ điện năng thấp hơn để chạy các thuật toán AI bên ngoài điện thoại thông minh hoặc máy tính xách tay.
Apple đã tiếp thị các máy tính xách tay và máy tính bảng mới nhất của mình được tối ưu hóa cho AI nhờ công cụ thần kinh trên chip của họ. Tại hội nghị nhà phát triển sắp tới, Apple đang có kế hoạch giới thiệu một loạt tính năng AI mới, có thể chạy trên silicon hỗ trợ iPhone của công ty.