Skip to Content

什麼是神經處理器(NPU)?

人工智慧和機器學習(AI/ML)是一項令人振奮的技術,實現了巨大的承諾,但我們共同達到了實現這些承諾的能力極限。整體來說,我們的 AI 目標和 ML 抱負正迅速達到實際可行的極限。如果 AI 和 ML 未來將會來臨,神經處理器(NPU)就是關鍵。

對於對大規模 AI 工作負載非常重視的組織而言,了解什麼是 NPU、它如何運作,以及它能夠具備什麼能力,將有助於您正確決定如何建立管道。正確的儲存解決方案至關重要,因為大多數都無法跟上 NPU 的速度。

什麼是神經處理器?

神經處理器是專門設計的硬體,著重於加速神經網路運算。多虧了 NPU 的設計,NPU 大幅提升了 AI 系統的速度和效率。 

別誤認為 NPUs 是升級的熟悉技術:NPU 是 AI/ML 處理的一大躍進。NPU 經過優化,可執行 AI 和 ML 演算法,在影像辨識和自然語言處理等任務中特別有效率,需要快速處理大量多媒體資料。

NPU 不一定會與較廣為人知的對手、CPU(中央處理器)和 GPU(圖形處理器)競爭。相反地,NPU 與它們及其角色是互補的。 

即便是最好的 CPU,仍只是一般用途的運算引擎。CPU 能夠處理各種任務,但缺乏針對多項任務的專門優化。另一方面,GPU 專門用於平行處理,尤其擅長複雜的繪圖運算。多虧了數位貨幣挖礦,GPU 已發展出處理機器學習工作負載的聲譽,但需要特殊電路才能在這類工作中發揮特別成效。

神經處理器如何運作?

NPU 專為處理機器學習演算法而設計。雖然 GPU 處理平行資料的能力相當好,但 NPU 是專為執行負責 AI/ML 流程的神經網路所需的運算所設計。

機器學習演算法是打造 AI 應用程式的基礎和鷹架。隨著神經網路和機器學習運算變得越來越複雜,對客製化解決方案的需求也隨之出現。 

NPU 透過原生執行神經網路所需的許多特定作業,來加速深度學習演算法。NPU 並非建立執行這些作業的架構,或執行允許這些進階運算的環境,而是自訂以有效率地執行 AI/ML 作業。 

NPU 及其內建的高效能運算功能,對 AI 效能有極大的影響。矩陣乘法和卷積是 AI 流程所依賴的專門任務,NPU 則表現優異。影像辨識與語言處理是 NPU 目前正在改變業界,提供更快速的推論時間與更低的功耗,進而影響組織的利潤。

神經處理器的應用

神經處理器的應用範圍延伸至任何需要快速、高效、可擴充處理 AI/ML 工作負載的產業或領域。NPU 正部署於自然語言處理中,以進行情緒分析、語言翻譯、文字摘要和聊天機器人。當 NPU 用於網路安全時,會處理大量的資料,並啟用威脅、異常和入侵偵測。NPU 在剖析視覺資料方面有明顯改善,並用於自駕車和醫療領域,這兩大領域需要快速影像分析。

NPU 對我們開放的世界在很大程度上仍未被發現。在消費者層面,NPU(已整合至智慧型手機和 SoC)會模糊視訊通話中的背景,並即時產生 AI 影像。但 NPU 的真正功能尚未被揭露。

神經處理器的優勢和限制

NPU 提供更快速的推論速度,並加速深度學習模型的推論工作。當神經網路運算卸載至 NPU 時,延遲會降低,使用者體驗也會有所改善。NPU 在邊緣和 IoT 設備中的部署日益增加,這要歸功於它們比 GPU 和 CPU 的效率高出多少。

但 NPU 有下行趨勢:速度可能太快。資料儲存系統由資料湖泊和資料倉儲組成,旨在因應資料處理速度的嚴峻、實體限制。NPU 的速度可能讓傳統儲存系統不堪負荷。

NPU 需要速度足以跟上速度的整體儲存解決方案,才能大規模使用。在企業級,儲存設備必須專為 AI 打造。舉例來說,Pure Storage® FlashBlade//SKubernetes 是專為能夠處理大規模 AI/ML 管線的輸出、共享、橫向擴充基礎架構所設計。

還有 AI-Ready 基礎架構。AIRI® 的設計宗旨是將 NPU 的驚人速度轉變成資產,是一款全端解決方案,可簡化 AI 部署,並快速有效地擴展。 

神經處理器 vs. 圖形處理器

如上所述,NPU 和 GPU 在架構、效能和應用程式方面有顯著的差異。NPU 和 GPU 是不同的硬體,每個硬體都針對其最佳效能進行最佳化:適用於 AI/ML 任務的 NPU,以及適用於繪圖渲染的 GPU。 

由於 NPU 是專為加速神經網路運算所設計的專用硬體,因此其架構是專為深度學習任務所打造。相反地,GPU 需要重新用於深度學習工作,而且在繪圖渲染方面更強大。GPU 具有具有數千核心的廣義架構。NPU 採用更精簡的設計,並配備專屬硬體,可處理矩陣乘法和卷積等工作。 

NPU 在邊緣裝置的即時推論任務中,往往表現優於 GPU,而低延遲和能源效率是關鍵所在。NPU 在需要裝置 AI 處理的應用中也比較受歡迎,例如自動駕駛汽車和IoT裝置。NPU 在資源有限的環境中,為實現 AI 工作負載速度,擊敗了 GPU。

結論

在任何專案中,對於工作的每個部分都有合適的工具,以及擁有一個通用工具的簡易性,兩者之間有不斷的權衡。舉例來說,這種權衡是業餘木工不投資圓鋸、二尖塔鋸、角鋸、桌鋸、帶鋸、旋轉鋸和鏈鋸的原因,直到他們需要用到他們正在處理的專案。同樣的,AI/ML 世界直到最近才使用 GPU。

神經處理單元是強大的客製化工具,適用於人工智慧和機器學習演算法。NPU 能夠徹底改變 AI/ML 工作負載的面貌。而且有道理地說,更多的網路和公司都在投資:AI 和 ML 已準備好重塑我們的文化、技術,甚至是我們的藝術。

大規模運用 NPU 的強大功能和效率,需要重新構思房子儲存端的可能性。但不只重新想像 AI/ML 的可能性,您也可能必須重新想像儲存、混合式或雲端網路,以確保在 NPU 快速插入並處理大量資料的同時,您擁有能夠跟上腳步的儲存解決方案。

02/2025
Accelerate AI-Driven Results with Pure Storage
Hear from real customers how Pure Storage helped accelerate model training and inference, streamline AI pipelines, and reduce AI power consumption in the data center.
電子書
9 頁
聯繫我們
問題或建議

如對Pure的產品或認證,有任何的疑問或建議,歡迎與我們聯繫!

預約試用

預約現場示範,親眼看看 Pure 如何幫助您將資料轉化為強大的成果。 

聯絡我們:886-2-3725-7989

媒體:pr@purestorage.com

 

Pure Storage總部

34F, Taipei Nanshan Plaza,

No. 100, Songren Road,

Xinyi District,

Taipei City 110016

Taiwan (R.O.C.)

800-379-7873 (一般資訊)

info@purestorage.com

關閉
您的瀏覽器已不受支援!

較舊版的瀏覽器通常存在安全風險。為讓您使用我們網站時得到最佳體驗,請更新為這些最新瀏覽器其中一個。