Skip to Content

検索拡張生成(RAG)とは?

※このページの内容が日本語である場合は、機械翻訳システムで翻訳したものです。

機械学習AI は、世界を変える可能性のある強力なツールですが、その力は与えられるデータと使用するモデルによって決まります。機械学習と AI の重要な要素である自然言語処理(NLP)は、コンピュータが人間の言語を解釈、操作、理解する能力を提供します。

検索拡張生成(RAG:Retrieval Augmented Generation)は、生成能力と外部知識へのアクセスのギャップを埋め、より堅牢で文脈を考慮した言語の理解と生成システムをもたらすことで、NLP の大きな進歩を表します。

ここでは、RAG とは何か、RAG が重要な理由、RAG の仕組み、RAG のアプリケーションとメリットについて解説します。

RAG

RAG は、LLM を外部の権威あるナレッジベースと統合することで、元のトレーニング・データを超えて LLM の機能を拡張する技術です。

RAG では、生成的機械学習モデルが、生成プロセス中に大規模な外部ナレッジベースから関連情報を取得し、より豊かな文脈、より豊かな結果、よりよいコンテンツをもたらします。

NLP の分野で RAG が重要な理由

RAG は、事前にトレーニングされた言語モデルの長所と、取得した情報の文脈の豊かさを兼ね備えており、質疑応答、要約、対話システムなどのさまざまなアプリケーションで、より情報に基づいた正確なテキスト生成を可能にします。

RAG は、NLP の分野で重要な概念です。

文脈理解の向上:検索メカニズムを組み込むことで、RAG モデルは、入力クエリや生成タスクに関連する膨大な量の外部知識や文脈にアクセスできます。これにより、モデルが文脈をより深く理解することができ、より正確で文脈に関連する応答につながります。

コンテンツ生成の改善:RAG モデルは、流暢なだけでなく、現実世界の知識に基づいたコンテンツを生成できます。これは、生成された出力が事実に基づいた一貫性のあるものである必要があるタスクに特に役立ちます。

偏見や誤った情報を削減:RAG モデルは、生成されたコンテンツを外部ソースと照合することで、偏見や誤った情報を削減します。ナレッジベースから多様な視点を取り入れることで、モデルはよりバランスの取れ、事実に基づいた正確なアウトプットを生成することができます。

柔軟性と適応性:RAG アーキテクチャは柔軟で、さまざまなドメインや言語に適応できます。ドメイン固有のナレッジベースを活用し、推論中に関連情報を動的に取得することで、新しいトピックに適応できます。

拡張性:RAG モデルは、大規模なナレッジベースに対応するために効果的に拡張できます。取得コンポーネントは、事前にトレーニングされたパラメータのみに依存するものではなく、多様なアプリケーションやユースケースに拡張可能なアプローチを提供します。

継続的な学習と改善:RAG システムは、継続的に学習し、時間の経過とともに改善するように設計されています。フィードバック・メカニズムと反復的な改良プロセスを組み込むことで、RAG モデルの性能、正確性、関連性を高め、高品質のコンテンツを生成できます。この反復的な学習ループは、RAG を活用したアプリケーションの長期的な有効性と信頼性に寄与します。

RAG の仕組み

RAG は、事前にトレーニングされた言語モデルと検索メカニズムを組み合わせて、テキストベースの出力の生成を向上させます。

RAG の基本的な構成要素を見てみましょう。

  1. トレーニング済みの言語モデル
  2. このプロセスは、生成的事前トレーニング済みトランスフォーマー(GPT)や双方向エンコーダ表現トランスフォーマー(BERT)などの事前トレーニング済み言語モデルから始まります。これらのモデルは、膨大な量のテキスト・データに関するトレーニングを受けており、人間のようなテキストを理解し、生成することができます。

  3. 検索メカニズム
  4. 検索メカニズムは、Okapi BM25(検索エンジンで使用されるランキング関数)などの技術を使用して、ナレッジベースから関連情報を取得します。

  5. ナレッジベース
  6. RAG は、目の前のタスクに関連する情報を持つナレッジベースや作業単位へのアクセスを必要とします。これには、データベース、文書のコレクション、キュレーションされた Web ページのセットなどが含まれます。

  7. クエリの入力
  8. ユーザーは、RAG システムに入力クエリまたはプロンプトを提供します。このクエリは、質問、部分的な文、または意味のある応答を生成するために文脈や情報を必要とする任意の形式の入力である可能性があります。

  9. 取得プロセス
  10. 検索メカニズムは、入力クエリを処理し、ナレッジベースから関連ドキュメントやパスを取得します。

  11. コンテキスト融合
  12. 取得された情報は、元の入力クエリやプロンプトと融合され、言語モデルの文脈リッチな入力が作成されます。このコンテキスト融合のステップは、出力を生成する前に、言語モデルが関連情報にアクセスできることを保証します。

  13. 生成
  14. 事前トレーニング済みの言語モデルは、文脈で強化された入力を使用して、必要な出力を生成します。この出力は、質問に対する完全な回答、ストーリーの継続、言い換えられた文章、その他のテキストベースの回答です。

  15. 評価と改良
  16. 生成された出力は、事前に定義された指標や人間の判断に基づいて評価できます。システムは、フィードバックに基づいて改良、微調整され、時間の経過とともに生成される出力の品質を向上させることができます。

RAG アプリケーション

RAG は、さまざまな業種のさまざまなアプリケーションで役立ちます。

チャットボット

最も一般的な例としては、チャットボットや仮想アシスタントが挙げられます。RAG は、文脈に応じた的確な応答を提供することで、会話能力を向上させます。例えば、通信会社のカスタマー・サービス・チャットボットは、RAG を使用して、FAQ、製品仕様、トラブルシューティング・ガイドなどのナレッジベースから情報を取得できます。Web サイトのユーザーが質問をすると、チャットボットは、ユーザーのクエリと取得した知識の両方に基づいて回答を生成し、より有益で役立つやり取りにつながります。

コンテンツ生成

その他の一般的な RAG アプリケーションには、コンテンツの生成と要約があります。例えば、ニュース要約システムでは、RAG を使用して、特定のトピックに関する関連記事や背景情報を取得できます。システムは、取得した知識をニュース記事の主要ポイントと統合することで、簡潔で有益なサマリーを作成し、重要な詳細を省略することなく包括的な概要を読者に提供します。

大規模言語モデル

RAG は、大規模で高性能な大規模言語モデル(LLM)のユースケースに使用できます。これには、企業が外部のより具体的で専有的なデータソースを使用して、一般的な LLM を改善し、カスタマイズします。LLM がトレーニング時に使用したナレッジベース外の情報源を参照することで、幻想(ハルシネーション)などの主要な生成 AI の課題に対処し、LLM をより正確、適時、かつ関連性の高いものにします。

eコマース

RAG は、製品レビュー、仕様、ユーザー・フィードバックを取得することで、eコマース・アプリケーションなどのサポートも行います。ユーザーが特定の製品やカテゴリを検索すると、ユーザーの好み、過去のインタラクション、取得した知識に基づいて、パーソナライズされた推奨事項を生成できます。

教育機関

教育機関や Web サイトは、RAG を使用してパーソナライズされた学習体験を作成し、教育コンテンツに追加の文脈を提供することができます。例えば、AI ベースの指導システムは、RAG を使用して、学習するトピックに関連する教材、教科書、補足資料にアクセスできます。学生が概念について質問したり説明を求めたりすると、取得した知識と学生の現在の学習文脈を組み合わせることで、説明や例を生成できます。

医療・ヘルスケア

医療情報システムは、RAG を使用して、臨床医や患者に正確で最新の医療情報を提供します。医療チャットボットや情報システムは、RAG を使用して、医学文献、治療ガイドライン、患者教育資料を取得できます。医療提供者や患者が特定の病状、治療オプション、症状について質問した場合、システムは取得した知識に基づいて有益な回答を生成し、ユーザーが情報に基づいた意思決定を行い、複雑な医療概念をより容易に理解するのに役立ちます。

これらの例は、業界間の RAG の多様性を示し、NLP、コンテンツ生成、レコメンデーション・システム、ナレッジ管理アプリケーションのさまざまな側面を強化する可能性を強調しています。

まとめ

RAG は、事前にトレーニングされた言語モデルと検索メカニズムを組み合わせて、テキスト生成タスクを強化します。コンテンツ品質の向上、偏見の軽減、ユーザー満足度、スケーラビリティ、継続的な学習機能の向上を実現します。RAG アプリケーションには、チャットボット、コンテンツ生成、レコメンデーション・システム、教育プラットフォーム、医療情報システムなどが含まれます。

RAG は進化を続け、高度な AI 技術と統合するにつれ、AI システムとの対話方法に革命をもたらし、自然言語の対話において、よりパーソナライズされた、有益で魅力的な体験を提供する可能性があります。

NVIDIA GPU、NVIDIA ネットワーキング、NVIDIA マイクロサービス、ピュア・ストレージの FlashBlade//S による RAG パイプラインが、エンタープライズの生成 AI アプリケーションを最適化する方法をご紹介します。

こちらの資料もご覧ください!

03/2025
Pure Storage for Telco AI
How Pure Storage helps telcos deliver on the promises of AI.
ホワイト・ペーパー
8 pages
ご相談・お問い合わせ
ご相談・お問い合わせ情報アイコン
チャットのアイコン
ご質問・ご相談

ピュア・ストレージ製品および認定についてのご質問・ご相談を承っております。ご連絡をお待ちしております。

カギのアイコン
デモのご用命

ライブデモのご用命を承っております。ピュアがいかにしてデータを成果に変えるお手伝いができるかをご説明します。 

ピュア・ストレージ・ジャパン株式会社

〒100-0014 東京都千代田区永田町 2 丁目 10-3 東急キャピトルタワー 12 階

 

一般: info-japan@purestorage.com

メディア: pr-japan@purestorage.com

03-4563-7443(総合案内)

閉じる
閉じる閉じる X のアイコン
このブラウザは現在サポートされていません。

古いブラウザには、セキュリティ・リスクが存在する場合があります。ピュア・ストレージの Web サイトをより快適にご利用いただけるよう、最新のブラウザにアップデートしてください。