人工知能と機械学習(AI/ML)は、大きな可能性を秘めたエキサイティングな技術ですが、実現するための能力は、限界に達しつつあります。全体として、AI の目標と ML の野望は、実際に可能なことの限界に急速に近づいています。AI と ML の未来があるとすれば、ニューラル処理ユニット(NPU)が鍵となります。
大規模な AI ワークロードに真剣に取り組む組織にとって、NPU とは何か、どのように機能するか、何が可能であるかを理解することは、パイプラインの構築方法について正しい判断を下す助けとなります。ほとんどのストレージは NPU が提供するスピードに追いつけないため、適切なストレージ・ソリューションが重要になります。
ニューラル処理ユニット
ニューラル処理ユニットは、ニューラル・ネットワークの計算の高速化に焦点を当てて設計された特殊なハードウェアです。NPU は、その設計により AI システムの速度と効率を大幅に向上させます。
NPU を、使い慣れた技術のアップグレードと間違えないでください。NPU は、AI/ML 処理の飛躍的な進歩です。AI や ML を可能にするアルゴリズムの実行に最適化された NPU は、画像認識や自然言語処理などのタスクにおいて特に効率的であり、大量のマルチメディア・データの高速処理を必要とします。
NPU は、より認知度の高い CPU(中央処理ユニット)や GPU(グラフィック処理ユニット)と必ずしも競合するわけではありません。代わりに、NPU は、それらの役割を補完します。
CPU は、たとえ最高のものであっても、汎用コンピューティング・エンジンにすぎません。CPU は、幅広いタスクを処理することができますが、多くのタスクに対する専門的な最適化はありません。一方、GPU は並列処理に特化しており、グラフィックスの複雑な計算に特に優れています。デジタル通貨マイニングのおかげで、GPU は機械学習ワークロードを処理することで高い評価を得ていますが、そのようなタスクで特に効果的であるためには特別な回路が必要です。
ニューラル処理ユニットの仕組み
NPU は、機械学習アルゴリズムを処理するために特別に設計されています。GPU は並列データの処理に非常に優れていますが、NPU は AI/ML プロセスを担当するニューラル・ネットワークの実行に必要な計算のために設計されています。
機械学習アルゴリズムは、AIアプリケーションを構築する土台であり、足場です。ニューラル・ネットワークや機械学習の計算がますます複雑化するにつれ、カスタム・ソリューションの必要性が高まっています。
NPU は、ニューラル・ネットワークが必要とする特定の操作の多くをネイティブに実行することで、深層学習アルゴリズムを加速します。NPU は、これらの操作を実行するためのフレームワークや、高度な計算を可能にする環境を構築するのではなく、AI/ML の操作を効率的に実行するためにカスタム設計されています。
NPU と、高性能な計算のための組み込み機能は、AI の性能に大きな影響を与えます。行列の乗算と畳み込みは、AI プロセスが依存し、NPU が得意とする特殊なタスクです。画像認識と言語処理は、NPU が現在業界を変革している分やであり、推論時間の短縮と消費電力の削減を誇り、組織の収益に影響を与える可能性があります。
ニューラル処理ユニットの用途
ニューラル処理ユニットの用途は、AI/ML ワークロードの迅速かつ効率的でスケーラブルな処理を必要とするあらゆる産業や分野に及びます。NPU は、感情分析、言語翻訳、テキスト要約、チャットボットのための自然言語処理に展開されています。NPU は、サイバーセキュリティにおいて膨大な量のデータを処理し、脅威、異常、侵入の検出を可能にします。NPU は、視覚データの解析に優れており、自律走行車や医療分野でなど、高速な画像分析を必要とする 2 つの分野で使用されています。
NPU が切り開いてくれる世界は、まだほとんどが未開拓です。消費者レベルでは、NPU(既にスマートフォンや SoC に大きく統合されています)が、ビデオ通話の背景をぼやかしたり、AI 画像をその場で生成したりしています。しかし、NPU の真の可能性はまだ明らかになっていません。
ニューラル処理ユニットの利点と限界
NPU は、深層学習モデルにおいて、推論の高速化と推論タスクの高速化を実現します。ニューラル・ネットワークの計算が NPU にオフロードされると、遅延が減少し、ユーザー・エクスペリエンスが向上します。NPU は、GPU や CPU よりも電力効率が優れているため、エッジや IoT デバイスへの展開がますます進んでいます。
しかし、NPU には欠点があります。高速すぎる可能性があります。データ・レイクとデータ・ウェアハウスで構成されるデータ・ストレージ・システムは、データ処理速度のハードで物理的な制限に対応して開発されました。NPU の速度は、従来のストレージ・システムを圧倒する可能性があります。
NPU を大規模に適切に使用するには、十分な高速性を備えた包括的なストレージ・ソリューションが必要です。エンタープライズ・レベルでは、ストレージは AI 専用に構築される必要があります。例えば、ピュア・ストレージの FlashBlade//S は、大規模な AI/ML パイプラインを処理できるスループット、共有、スケールアウトのアーキテクチャとして設計されています。
AI 対応のインフラもあります。NPU の急速な速度がもたらす潜在的な欠点を資産に変えるために設計されたAIRI は、フルスタック・ソリューションです。AI の展開を簡素化し、迅速かつ効率的に拡張できます。
ニューラル処理ユニットとグラフィック処理ユニットの比較
前述のように、NPU と GPU は、アーキテクチャ、性能、アプリケーションによって大きく異なります。NPU と GPU は異なるハードウェアで、それぞれが得意とすることに最適化されています。AI/ML タスクには NPU を、グラフィックス・レンダリングには GPU を使用します。
NPU は、ニューラル・ネットワークの計算を高速化するために特別に設計された特殊なハードウェアであるため、そのアーキテクチャは深層学習タスク用にカスタム設計されています。対照的に、GPU は深層学習のタスクに再利用する必要があり、グラフィックス・レンダリングでははるかに強力です。GPU は、数千のコアを持つ一般化されたアーキテクチャを備えています。NPU は、行列の乗算や畳み込みなどのタスクのための専用ハードウェアにより、より合理化された設計を特徴としています。
NPU は、低遅延とエネルギー効率が鍵となるエッジ・デバイスのリアルタイム推論タスクにおいて GPU を上回る傾向があります。NPU は、自律走行車や IoT デバイスなど、オンデバイスでの AI 処理を必要とするアプリケーションにも適しています。また、NPU は、リソースに制約のある環境での AI ワークロードの高速化のために GPU を圧倒します。
まとめ
どのプロジェクトにおいても、作業の各部分に適したツールを持つことと、汎用的なツールを 1 つ持つこととの間には、常にトレードオフがあります。そのトレードオフは、例えば、アマチュアの木工家が、丸鋸、マイターソー、ジグソー、テーブルソー、バンドソー、ロータリーソー、チェーンソーを、作業中のプロジェクトで必要になるまで投資しないのは、このトレードオフのためです。同様に、AI/ML の世界も最近まで GPU でうまく機能していました。
ニューラル処理ユニットは、人工知能と機械学習アルゴリズムのための強力でカスタム構築されたツールです。NPU は、AI/ML ワークロードの面において、非常に大きな変革をもたらす可能性があります。また、より多くのネットワークや企業が投資を行っていることは理にかなっています。AI と ML は、文化、技術、芸術さえも再構築しようとしています。
NPU のパワーと効率性を大規模に活用するには、ストレージ側の可能性を再考する必要があります。しかし、AI/ML で可能なことを再考するだけでなく、ストレージ、ハイブリッド、クラウドのネットワークを再考して、NPU が膨大な量のデータを高速に取り込んで処理している間に、それに対応できるストレージ・ソリューションを確保しなければならない場合もあります。