Skip to Content

什麼是神經處理器(NPU)?

人工智慧和機器學習(AI/ML)是一項令人振奮的技術,實現了巨大的承諾,但我們共同達到了實現這些承諾的能力極限。整體來說,我們的 AI 目標和 ML 抱負正迅速達到實際可行的極限。如果 AI 和 ML 未來將會來臨,神經處理器(NPU)就是關鍵。

對於對大規模 AI 工作負載非常重視的組織而言,了解什麼是 NPU、它如何運作,以及它能夠具備什麼能力,將有助於您正確決定如何建立管道。正確的儲存解決方案至關重要,因為大多數都無法跟上 NPU 的速度。

什麼是神經處理器?

神經處理器是專門設計的硬體,著重於加速神經網路運算。多虧了 NPU 的設計,NPU 大幅提升了 AI 系統的速度和效率。 

別誤認為 NPUs 是升級的熟悉技術:NPU 是 AI/ML 處理的一大躍進。NPU 經過優化,可執行 AI 和 ML 演算法,在影像辨識和自然語言處理等任務中特別有效率,需要快速處理大量多媒體資料。

NPU 不一定會與較廣為人知的對手、CPU(中央處理器)和 GPU(圖形處理器)競爭。相反地,NPU 與它們及其角色是互補的。 

即便是最好的 CPU,仍只是一般用途的運算引擎。CPU 能夠處理各種任務,但缺乏針對多項任務的專門優化。另一方面,GPU 專門用於平行處理,尤其擅長複雜的繪圖運算。多虧了數位貨幣挖礦,GPU 已發展出處理機器學習工作負載的聲譽,但需要特殊電路才能在這類工作中發揮特別成效。

神經處理器如何運作?

NPU 專為處理機器學習演算法而設計。雖然 GPU 處理平行資料的能力相當好,但 NPU 是專為執行負責 AI/ML 流程的神經網路所需的運算所設計。

機器學習演算法是打造 AI 應用程式的基礎和鷹架。隨著神經網路和機器學習運算變得越來越複雜,對客製化解決方案的需求也隨之出現。 

NPU 透過原生執行神經網路所需的許多特定作業,來加速深度學習演算法。NPU 並非建立執行這些作業的架構,或執行允許這些進階運算的環境,而是自訂以有效率地執行 AI/ML 作業。 

NPU 及其內建的高效能運算功能,對 AI 效能有極大的影響。矩陣乘法和卷積是 AI 流程所依賴的專門任務,NPU 則表現優異。影像辨識與語言處理是 NPU 目前正在改變業界,提供更快速的推論時間與更低的功耗,進而影響組織的利潤。

神經處理器的應用

神經處理器的應用範圍延伸至任何需要快速、高效、可擴充處理 AI/ML 工作負載的產業或領域。NPU 正部署於自然語言處理中,以進行情緒分析、語言翻譯、文字摘要和聊天機器人。當 NPU 用於網路安全時,會處理大量的資料,並啟用威脅、異常和入侵偵測。NPU 在剖析視覺資料方面有明顯改善,並用於自駕車和醫療領域,這兩大領域需要快速影像分析。

NPU 對我們開放的世界在很大程度上仍未被發現。在消費者層面,NPU(已整合至智慧型手機和 SoC)會模糊視訊通話中的背景,並即時產生 AI 影像。但 NPU 的真正功能尚未被揭露。

神經處理器的優勢和限制

NPU 提供更快速的推論速度,並加速深度學習模型的推論工作。當神經網路運算卸載至 NPU 時,延遲會降低,使用者體驗也會有所改善。NPU 在邊緣和 IoT 設備中的部署日益增加,這要歸功於它們比 GPU 和 CPU 的效率高出多少。

但 NPU 有下行趨勢:速度可能太快。資料儲存系統由資料湖泊和資料倉儲組成,旨在因應資料處理速度的嚴峻、實體限制。NPU 的速度可能讓傳統儲存系統不堪負荷。

NPU 需要速度足以跟上速度的整體儲存解決方案,才能大規模使用。在企業級,儲存設備必須專為 AI 打造。舉例來說,Pure Storage® FlashBlade//SKubernetes 是專為能夠處理大規模 AI/ML 管線的輸出、共享、橫向擴充基礎架構所設計。

還有 AI-Ready 基礎架構。AIRI® 的設計宗旨是將 NPU 的驚人速度轉變成資產,是一款全端解決方案,可簡化 AI 部署,並快速有效地擴展。 

神經處理器 vs. 圖形處理器

如上所述,NPU 和 GPU 在架構、效能和應用程式方面有顯著的差異。NPU 和 GPU 是不同的硬體,每個硬體都針對其最佳效能進行最佳化:適用於 AI/ML 任務的 NPU,以及適用於繪圖渲染的 GPU。 

由於 NPU 是專為加速神經網路運算所設計的專用硬體,因此其架構是專為深度學習任務所打造。相反地,GPU 需要重新用於深度學習工作,而且在繪圖渲染方面更強大。GPU 具有具有數千核心的廣義架構。NPU 採用更精簡的設計,並配備專屬硬體,可處理矩陣乘法和卷積等工作。 

NPU 在邊緣裝置的即時推論任務中,往往表現優於 GPU,而低延遲和能源效率是關鍵所在。NPU 在需要裝置 AI 處理的應用中也比較受歡迎,例如自動駕駛汽車和IoT裝置。NPU 在資源有限的環境中,為實現 AI 工作負載速度,擊敗了 GPU。

結論

在任何專案中,對於工作的每個部分都有合適的工具,以及擁有一個通用工具的簡易性,兩者之間有不斷的權衡。舉例來說,這種權衡是業餘木工不投資圓鋸、二尖塔鋸、角鋸、桌鋸、帶鋸、旋轉鋸和鏈鋸的原因,直到他們需要用到他們正在處理的專案。同樣的,AI/ML 世界直到最近才使用 GPU。

神經處理單元是強大的客製化工具,適用於人工智慧和機器學習演算法。NPU 能夠徹底改變 AI/ML 工作負載的面貌。而且有道理地說,更多的網路和公司都在投資:AI 和 ML 已準備好重塑我們的文化、技術,甚至是我們的藝術。

大規模運用 NPU 的強大功能和效率,需要重新構思房子儲存端的可能性。但不只重新想像 AI/ML 的可能性,您也可能必須重新想像儲存、混合式或雲端網路,以確保在 NPU 快速插入並處理大量資料的同時,您擁有能夠跟上腳步的儲存解決方案。

11/2024
Pure Storage FlashBlade and Ethernet for HPC Workloads
NFS with Pure Storage® FlashBlade® and Ethernet delivers high performance and data consistency for high performance computing (HPC) workloads.
白皮書
7 頁面
聯繫我們
問題或建議

如對Pure的產品或認證,有任何的疑問或建議,歡迎與我們聯繫!

預約試用

預約現場示範,親眼看看 Pure 如何幫助您將資料轉化為強大的成果。 

聯絡我們:886-2-3725-7989

媒體:pr@purestorage.com

 

Pure Storage總部

34F, Taipei Nanshan Plaza,

No. 100, Songren Road,

Xinyi District,

Taipei City 110016

Taiwan (R.O.C.)

800-379-7873 (一般資訊)

info@purestorage.com

關閉
您的瀏覽器已不受支援!

較舊版的瀏覽器通常存在安全風險。為讓您使用我們網站時得到最佳體驗,請更新為這些最新瀏覽器其中一個。