[ad_1]
Lợi thế cạnh tranh của NVIDIA được xây dựng xung quanh các đơn vị xử lý đồ họa (GPU), có kích thước lớn, đắt tiền và tiêu tốn nhiều năng lượng
Được thúc đẩy bởi sự phát triển của Trí tuệ nhân tạo (AI) tạo sinh, thị trường chất bán dẫn đã khẳng định mình là một trong những ngành có lợi nhuận cao nhất trên toàn cầu − lĩnh vực này đã trị giá hơn 600 tỷ đô la, con số này sẽ tăng lên 1 nghìn tỷ đô la vào năm 2030. Trong giai đoạn tăng trưởng này, NVIDIA đã đạt được vị thế dẫn đầu không thể tranh cãi, chủ yếu là nhờ hiệu suất vượt trội của các bộ xử lý đồ họa (GPU).
Tuy nhiên, hiệu suất cao của GPU về mặt sức mạnh tính toán thô có cái giá của nó. Những con chip này vừa đắt tiền vừa tốn nhiều năng lượng, đặt ra câu hỏi liệu việc sử dụng rộng rãi của chúng có bền vững trong dài hạn hay không.
Theo Dorian Maillard, Phó Chủ tịch tại DAI Thầy giáonhững lo ngại về môi trường đang thúc đẩy sự phát triển của các thuật toán và phần cứng tiết kiệm năng lượng hơn, có thể đặt nền tảng cho việc áp dụng rộng rãi các bộ xử lý chuyên biệt cho từng lĩnh vực được tối ưu hóa để thực hiện hiệu quả các tác vụ AI, được gọi là bộ xử lý thần kinh (NPU).
Maillard cho biết: “Bất chấp những nỗ lực từ các công ty như Microsoft, AWS và Google để phát triển GPU AI và chip NPU của riêng họ, NVIDIA vẫn là người dẫn đầu rõ ràng trên thị trường phần cứng AI do hiệu suất cao và hệ sinh thái đã được thiết lập của GPU. Tuy nhiên, sự thống trị của NVIDIA trong không gian GPU làm lu mờ hai vấn đề cơ bản: chi phí vốn cao và mức tiêu thụ năng lượng liên quan đến việc chạy AI.
“Người ta ước tính rằng một truy vấn tìm kiếm AI duy nhất tiêu thụ năng lượng nhiều hơn tới 10 lần so với tìm kiếm trên Google thông thường, nhấn mạnh nhu cầu về các sáng kiến giúp giảm thiểu chi phí và lượng khí thải carbon của AI trong khi vẫn có khả năng cạnh tranh với hiệu suất của NVIDIA.
“Vấn đề này đã làm nảy sinh một loại chip mới: bộ xử lý thần kinh, hay NPU. NPU được thiết kế để tăng tốc quá trình xử lý các tác vụ AI, bao gồm học sâu và suy luận. Chúng có thể xử lý khối lượng lớn dữ liệu music music và nhanh chóng thực hiện các thuật toán AI phức tạp bằng bộ nhớ chuyên dụng trên chip để lưu trữ và truy xuất dữ liệu hiệu quả.
“Trong khi GPU sở hữu sức mạnh xử lý và tính linh hoạt lớn hơn, NPU nhỏ hơn, ít tốn kém hơn và tiết kiệm năng lượng hơn. Ngược lại, NPU cũng có thể vượt trội hơn GPU trong các tác vụ AI cụ thể do kiến trúc chuyên biệt của chúng.
“Các ứng dụng NPU chính bao gồm nâng cao hiệu quả và năng suất trong công nghệ IoT và tự động hóa công nghiệp, cung cấp năng lượng cho các công nghệ như hệ thống thông tin giải trí và lái xe tự động trong lĩnh vực ô tô, cho phép sử dụng digicam điện thoại thông minh hiệu suất cao, thực tế tăng cường (AR), nhận dạng khuôn mặt và cảm xúc và xử lý dữ liệu nhanh chóng.
“GPU và NPU cũng có thể được triển khai music music để mang lại hiệu quả cao hơn. Trong các trung tâm dữ liệu và môi trường học máy/học sâu (ML/DL) để đào tạo các mô hình AI, NPU ngày càng được tích hợp để bổ sung cho GPU, đặc biệt là khi cần tiết kiệm năng lượng và độ trễ thấp.”
Maillard kết luận: “Chúng tôi kỳ vọng hoạt động gây quỹ trong lĩnh vực thiết bị biên NPU liên quan đến AI sẽ tiếp tục đà tăng trưởng. Một số yếu tố sẽ thúc đẩy đà tăng trưởng này: tầm quan trọng ngày càng tăng của AI trong hầu hết mọi ngành, đầu tư ngày càng tăng vào R&D và nhu cầu về chip hiệu suất cao, công suất thấp tăng đột biến.
“Hơn nữa, với những gã khổng lồ công nghệ lớn hơn như Microsoft, AWS và Google đang tích cực tìm cách phát triển hoặc mua lại các công nghệ chip AI, sự hợp nhất thị trường đang ở ngay trước mắt. Những gã khổng lồ công nghệ này không chỉ tìm cách mở rộng năng lực của mình mà còn đảm bảo rằng họ vẫn có khả năng cạnh tranh với sự hiện diện đáng gờm của NVIDIA.”
Đăng ký nhận tin tức insideAI miễn phí bản tin.
Tham gia cùng chúng tôi trên Twitter: https://twitter.com/InsideBigData1
Tham gia cùng chúng tôi trên LinkedIn: https://www.linkedin.com/company/insideainews/
Tham gia cùng chúng tôi trên Fb: https://www.facebook.com/insideAINEWSNOW
[ad_2]
Source link