Skip to Content

専用 GPU サーバーとは?

※このページの内容が日本語である場合は、機械翻訳システムで翻訳したものです。

専用 GPU サーバーは、1 つ以上のグラフィックス処理ユニット(GPU)を備えたサーバーで、ビデオ・レンダリング、データ分析、機械学習などの計算負荷の高いタスクを実行するためのパワーと速度を向上させます。専用の GPU サーバーには、専用の CPU が搭載されており、大量の RAM とストレージが付属している場合もあります。

GPU の並列アーキテクチャは GPU 、グラフィックスやビデオ処理を処理するように設計されており、専用の GPU サーバーが CPU ベースのサーバーの能力を超えた速度で複数のタスクを同時に管理できます。

GPU ラックサーバー

GPU ラックサーバーは、サーバーラックに収まるように設計された GPU を搭載したサーバーです。サーバーラックは、ラックサーバーやその他のネットワーク・コンポーネントを保持するように設計された複数のマウント・スロットを備えた長方形のフレームワークです。サーバーは、床面積の使用を最小限に抑えるために積み重ねられており、必要に応じてラックの内外にスライドします。

GPU ラックサーバーには、スペースの有効活用、スケーラビリティの向上、エアフローの最大化、メンテナンスの簡素化など、さまざまなメリットがあります。

専用 GPU サーバーを使用する理由

GPU は、スループットが最適化され、CPU に匹敵します。GPU は、さまざまな計算タスクを実行することができる高速クロックの少数のヘビーウェイト・コアを持つ代わりに、同じ動作を並列に処理するために最適化された数千の軽量コア(SIMD:単一命令、複数データ)を採用しています。

これらのコアには、次元マトリックスの算術および浮動小数点の計算用に最適化された命令セットがあり、線形代数を高速化します。その結果、並列コンピューティング用に最適化されたシステムが実現します。

専用の GPU サーバーを使用する理由には、次のようなものがあります。

  • ビッグデータ分析パイプライン
  • ストリーミング動画
  • 画像処理
  • 3D アニメーションとシミュレーション(タンパク質鎖の折りたたみのモデリングなど)
  • 深層学習アプリケーション(音声認識など)
  • ハッシュ・クラッキング(パスワードの復元など)
  • 暗号通貨のマイニング

1 つの操作を高速化し、数千のコア間で並列実行を行うことでメリットを享受できる場合は、専用の GPU サーバーが役立ちます。

GPU ラックサーバーの種類

GPU ラックサーバーは、ラックサーバーやキャビネットに収まります。サーバーラックとその設置機器は、ラック単位で測定され、“U”または“RU”と表記されます。「U」は、機器の高さ(サーバーの高さ、サーバーラックの高さとシェルフ数など)を表します。

1U は 1.75 インチに相当します。したがって、1U サーバーの高さは 1.75 インチ、2U サーバーの高さは 3.5 インチになります。例えば、32U ラックユニットには、32 台の 1U サーバー、4 台の 8U サーバー、または 1 台の 32U サーバーを格納できます。

ラックサイズの詳細については、「19 インチ サーバーラックサイズのガイド」をご覧ください。

小型フォーム・ファクターと大型フォーム・ファクターの比較

ラックサーバーのフォーム・ファクターは、密度と拡張性が主な違いです。

1U および 2U GPU ラックサーバー

1U や 2U GPU ラックサーバーなどの小型のフォーム・ファクターは、性能密度を念頭に設計されていますが、大型の GPU サーバー・フォーム・ファクターほど強力ではありません。これらは、低コストでサーバーのラックスペースを節約できるため、一般的に使用されています。

1U および 2U GPU ラックサーバーは、保守が容易で、ポータブルで、拡張も容易です(複数の GPU ラックサーバーを使用することで、性能を拡張できます)。1U サーバーには通常、CPU が 1 つか 2 つ、数テラバイトのメモリ、複数の GPU を搭載できます。12U サーバーの高さの 21U サーバーは、コンピューティング・パワーとストレージのためのスペースを提供します。

小型のフォーム・ファクター・サーバーでは、GPU は通常、スペースの制限により水平に設置されます。また、PCIe スロットやストレージのスペースも少なく、PCIe 拡張キットや JBOD エンクロージャを使用して拡張できます。

8U および 16U GPU ラックサーバー

8U や 16U などの大規模な GPU ラックサーバーは、より広範な性能を必要とするワークロードを対象としています。ストレージのスペースが広く、拡張スロットが追加されているため、追加の PCIe カードを接続することで、データ処理性能が向上します。また、スペースを増設することで、空気の循環を促進し、過熱を防ぎます。

より大きなフォーム・ファクターでは、GPU は垂直に設置され、背面ではなくカードの上部に電力接続のためのスペースが設けられています。

専用 GPU サーバーのサイズ調整方法

専用の GPU サーバーのサイズを決める際には、必要な製品機能と、現在および将来のビジネス・ニーズを考慮する必要があります。最適なサーバー構成は、ターゲット・ワークロード、そのサーバーの特定のユースケース、それを必要とする速度によって異なります。

専用の GPU サーバーは、ビデオ・レンダリング、深層学習トレーニング、推論、ビッグデータ分析、高性能コンピューティング(HPC)など、特定のターゲット・ワークロード向けに構成できます。最適なサーバー構成は、ターゲット・ワークロード、そのサーバーの特定のユースケース、それを必要とする速度によって異なります。

GPU は大量の電力を使用し、大量の熱を生成します。これらは CPU よりも大きく、電源コネクタのためのスペースが必要です。サーバー・シャーシは、使用する GPU の容量に十分適合する大きさであるだけでなく、過熱やサーマル・スロットリングを防ぐための優れた換気機能を備えている必要があります。

専用 GPU サーバーにかかるコスト

当然のことながら、コストは、専用の GPU サーバーの構築、サーバーのレンタル、クラウドベースのサービスのどちらを選択するかによって異なります。

独自のサーバーを構築する場合は、GPU のコストだけでなく、電源、シャーシ、特殊な CPU、RAM、ストレージも考慮する必要があります。また、電力、スペース、冷却、保守コストなど、オンプレミスのデータセンターの構築に伴うコストも考慮する必要があります。

GPU は専門分野によって分類され、価格はユースケースによって異なります。例えば、NVIDIA は、深層学習や高精度の計算に適した Tesla V100 ベースのサーバーを提供しています。NVIDIA の Nvidia GTX Titan Z などの最高評価の GPU は、約 3,000 ドルのコストがかかります。

クラウド・プラットフォームを利用する場合は、AWS V2 Cloud、Google Cloud Platform、Azure などの主要なクラウド・サービス・プロバイダを含む、GPU を活用したサーバー・プランを提供するクラウド・サービス・プロバイダがいくつかあります。例えば、AWS は、1 つの GPU と 4 つの仮想コアに対して、1 時間あたり 0.900 ドルからオンデマンドの価格を提供しています。

GPU ラックサーバー:購入とレンタルの比較

購入とレンタルのどちらを選ぶべきかは、いくつかの要因によります。主な要因は、会社の予算と想定される利用ケースです。

GPU ラックサーバーの購入には、初期費用がかかります。機械学習のワークロードに最適な最高評価の GPU には、高額な価格タグが付いてきます。これに、GPU サーバーをオンプレミスで保存する際のメンテナンス、エネルギー、帯域幅のコストを追加すると、初期投資コストは天文学的なものになる可能性があります。

現代の技術革新のペースに伴い、GPU サーバーを購入すると、投資収益を得る前に時代遅れになるリスクが伴います。システムの更新には、追加コストもかかります。

大規模なデータセットを使用して本番運用環境でモデルを展開する場合は、クラウド・サービス・プロバイダを通じて GPU インフラをレンタルすることを検討してください。このサブスクリプション・モデルでは、使用するリソースに応じて時間単位または月単位で支払うことができ、現在の需要に応じてスケールアップまたはスケールダウンできます。

ピュア・ストレージで最先端の AI インフラを実現

専用 GPU サーバーは、CPU ベースのサーバーよりも、高性能、柔軟性、CPU リソースの有効活用など、いくつかのメリットを提供します。専用の GPU サーバーは、完全に購入するか、サービス・プロバイダからレンタルすることができます。

AIRI は、ピュア・ストレージと NVIDIA が開発したシンプルでスケーラブルなフラッシュベースの AI インフラです。AIRI は、最新の NVIDIA DGX システムとピュア・ストレージの FlashBlade//S ストレージ、Purity//FB オペレーティング・システム、Pure1 クラウド管理を搭載しています。

ピュア・ストレージと AIRI で、AI の新たな成功を体験してください。

こちらの資料もご覧ください!

04/2025
High-performance AI for State and Local Government
Accelerate IT for state and local government with simple, accelerated, and scalable AI infrastructure from Pure Storage and NVIDIA.
ソリューションの概要
4 pages

リソースとイベントを検索

テックトーク
API でストレージの可能性を最大化

API が可能にするシームレスな性能管理。ピュア・ストレージの API は、自動化と最適化を容易にします。是非詳しくご覧ください!

Web セミナーを視聴する
シンプルさでお客さまにパワーを

業界で最も包括的で一貫性があり、直感的で使いやすいデータ・ストレージ・プラットフォームが、あらゆるワークロードをサポート。IT 部門の運用管理負荷とコストを削減し、重要なプロジェクトへの注力を可能にします。

NAND Research のレポートを読む
関連リソース
ストレージの未来形 AI 時代の新原則

AI をはじめとする新潮流がデータ・ストレージのニーズを変えています。成功のための考え方と最新の対策を解説します。

eBook をダウンロード
リソース
ストレージの購入から、プラットフォームの導入へのシフト

エンタープライズ・ストレージ・プラットフォームの選び方を、要件、構成要素とともに解説しています。

レポートを読む
ご相談・お問い合わせ
ご相談・お問い合わせ情報アイコン
チャットのアイコン
ご質問・ご相談

ピュア・ストレージ製品および認定についてのご質問・ご相談を承っております。ご連絡をお待ちしております。

カギのアイコン
デモのご用命

ライブデモのご用命を承っております。ピュアがいかにしてデータを成果に変えるお手伝いができるかをご説明します。 

ピュア・ストレージ・ジャパン株式会社

〒100-0014 東京都千代田区永田町 2 丁目 10-3 東急キャピトルタワー 12 階

 

一般: info-japan@purestorage.com

メディア: pr-japan@purestorage.com

03-4563-7443(総合案内)

閉じる
閉じる閉じる X のアイコン
このブラウザは現在サポートされていません。

古いブラウザには、セキュリティ・リスクが存在する場合があります。ピュア・ストレージの Web サイトをより快適にご利用いただけるよう、最新のブラウザにアップデートしてください。