メニュー

AWS環境で生成AIの活用を強化

目次

このページを共有

生成AIのポテンシャルをフルに発揮するインフラを構築

データ主体の今日の世界では、生成AI(GenAI)がビジネスに不可欠になりつつあります。GenAIは、生産性を高め、運用コストを削減し、卓越したカスタマー エクスペリエンスを提供することで、タスクを自動化し、高品質のコンテンツを生成して競合他社をリードすることにつながります。

インリジェントな情報分析で一歩先を行く

GenAIの活用は単なる自動化ではありません。実用的な情報分析と予測を行い、市場の変化や顧客のニーズに迅速に対応します。GenAIを活用することで、トレンドを予測し、データに基づいた意思決定をリアルタイムで行えます。

独自のデータを組み合わせて卓越した精度を実現

組織が独自に持っている分析情報を大規模言語モデル(LLM)のパブリック データと統合することで、さらに質と精度の高い分析を行うことができます。他社も同様のパブリック データにはアクセスできますが、データを統合した分析をすることで、競争力が高まります。

  • 検索拡張生成(RAG)を使用すると、独自のデータと動的なパブリック データを安全に組み合わせることができ、AIプロジェクトの関連性をこれまで以上に高めることができます。
  • AI推論を使用して、学習したパターンを新しいデータに適用して、画像認識、自然言語処理(NLP)、予測分析などのリアルタイムのタスクを実現します。
  • ユニファイド データ ストレージを活用することでがそれが可能になります。主なプロトコルやツールをすべてサポートするインテリジェントなデータ インフラにより、統合データ サービスを使用して、データをGenAIのパワーで有効活用できます。AI対応のクラウド ストレージは、RAGと推論を強化するだけでなく、GenAIワークロード向けのセキュアなエンタープライズ フレームワークとしても機能します。ユニファイド データ ストレージで膨大な非構造化データを効率的に管理し、さまざまなユースケースが実現できます。

GenAIとは

GenAIは人工知能の一種であり、テキスト プロンプトへの応答として、テキスト、画像、音楽、音声、ビデオ、コードなどのコンテンツをすばやく作成します。GenAIは、既存のデータから新しいコンテンツを作成することで、ビジネス機能を強化します。GenAIアプリケーションは、膨大な量の非構造化データで事前にトレーニングされたLLMと基盤モデル(FM)で強化されています。

これらのモデルは、オペレーションを変革するドメイン固有のタスクのデータを使用してカスタマイズできます。

GenAIのメリット

  • チャットボットと仮想アシスタントにより、カスタマー エクスペリエンスとパーソナライズを強化します
  • 会話型の検索、要約、コンテンツ作成、コード生成により、従業員の生産性が向上します
  • ドキュメント処理、データ拡張、強化されたサイバー セキュリティなどのビジネス プロセスを最適化します

なぜRAGを使用すべきですか。

RAGは変革をもたらします。これは、トレーニング セットの外部から、関連性のある信頼できるデータを追加することでLLMを改善し、正確で最新の応答を保証します。これにより、生成AIアプリケーションの効果と信頼性が向上し、可能性の世界が開かれます。

RAGシステムは2つのステップで機能します。まず、関連するデータセットが元のモデルの外でGenAIパイプラインに入るようにし、次に、GenAIモデルが問い合わせに対する正確な応答を生成します。

RAGによるAI応答の向上

RAGは、グローバルな洞察と専門的なドメイン知識を提供する能力を備えており、GenAIアプリケーションを最新かつ革新的な状態に保ちます。検索メカニズムを組み込み、適切なデータを含めることで正確性と関連性を高めることで、費用対効果の高い合理的なアプローチを提供します。これにより、間違った情報がデータ パイプラインに含まれないようにすることでリスクが軽減され、さまざまなアプリケーションに適した効率的なソリューションとなります。

RAGの一般的なユースケース

  • アルゴリズムとUIを改善して検索エンジンを強化し、より正確で関連性の高い結果を提供します。
  • 高度なアルゴリズムとユーザー行動分析を使用して、推奨システムを改善し、よりパーソナライズされた提案を提供します。
  • 仮想アシスタントの機能を強化して、より正確でパーソナライズされた応答を提供します。

データ パイプライン全体にRAGオペレーションを導入するための5つのポイント

データのポテンシャルを最大限に引き出すには、オペレーション全体にGenAIを統合するための戦略的アプローチが必要です。ここでは、効果的なRAGの取り組みを推進するための5つの機能を紹介します。

1

共通のデータ容量をあらゆる場所で使用可能

NetApp® ONTAP®データ管理機能により、あらゆる環境のデータを簡単に取り込んで、RAGへの取り組みを強化できます。ONTAPソフトウェアを使用すると、共通の運用プロセスを使用しながら、リスク、コスト、成果達成までの時間を削減できます。

2

分類とタグ付けの自動化

NetApp BlueXP分類サービスは、データ パイプラインの取り込みフェーズと推論フェーズで、データのカテゴリ化、分類、クレンジングを合理化します。これは、適切なデータがクエリに使用され、機密データが組織のポリシーに従って保護されることを意味します。

3

高速で拡張性に優れたSnapshotコピー

NetApp Snapshotテクノロジは、インターバルベースのA/Bテストとリカバリのために、ほぼ瞬時に、スペース効率に優れたベクター ストアとデータベースのインプレース コピーを作成します。ポイントインタイム分析を実行することができるほか、データに整合性がない場合は、以前のバージョンにすぐに戻すこともできます。

4

大規模環境でのリアルタイム クローニング

NetApp FlexClone®テクノロジを使用すると、A/Bプロンプトのテストと結果の検証を並行処理するためのベクター インデックス ストアのクローンを瞬時に作成できます。クローニングにより、本番環境のコア データに影響を与えることなく、一意に関連するデータをさまざまなユーザからのクエリに瞬時に利用できるようになります。

5

分散キャッシュ

NetApp FlexCache®ソフトウェアを使用すると、GPU処理能力のポイントでAIデータセットを推論の実行やコラボレーションに使用できます。

推論の役割

AIにおける推論は、機械やアルゴリズムがデータと事前知識を使用して意思決定や予測を行うための重要なプロセスです。トレーニング済みモデルを活用することで、推論プロセスは新しい入力を分析し、画像の分類、言語の理解、選択などの価値ある出力を提供します。推論を使用することで、AIは結論を導き出し、より正確で十分な情報に基づいた意思決定を下すことができるため、実際のアプリケーションでよりスマートな成果を得ることができます。

推論のユースケース

  • リアルタイム分析を使用して、収集されたデータを即座に分析し、迅速な意思決定と迅速な対応を可能にします。
  • 予知保全を適用して機器の故障を予測し、故障を防ぎ、機器の寿命を延ばします。
  • 詐欺行為を特定して軽減する高度な技術を実装することで、詐欺を検出して防止し、金融情報のセキュリティと信頼を維持します。

インテリジェントなAI向けデータ インフラ

AIワークロードには、AIモデルのトレーニングと導入に必要な膨大なデータを効率的に管理、保管、GPU利用、取得するための効果的なストレージ インフラが必要です。Amazon FSx for NetApp ONTAPは、AWSネイティブのストレージ サービスでONTAPのすべての機能を提供することで、データ管理を簡易化し、AIワークロードのパフォーマンスを向上します。

Amazon FSx for NetApp ONTAPを選ぶ理由

FSx for ONTAPは、BedrockやSageMakerなどのAWSサービスと連携して動作します。これは、AIアプリケーションを構築、拡張、管理し、AIのライフサイクル全体を通じて効率的かつセキュアにデータを処理するための強力な基盤を提供します。

生成AIのメリット

  • 生成AIモデルのトレーニングと導入では、多くの場合、大規模なデータセットへの高速アクセスが必要になるため、高パフォーマンスと低レイテンシが不可欠です。FSx for ONTAPでは、データとI/Oを複数のファイルシステムに分散するのではなく、最大12ペア(24ノード)を1つのクラスタ内に統合できます。最近の機能強化には、AWSのGenAIワークロードをサポートする、よりきめ細かなスケールアウト スループット容量が含まれています。
  • GenAIモデルのトレーニング中に生成された広範なデータセットと中間出力を処理するためには、効率的なデータ管理が不可欠です。FSx for ONTAPと、NetApp BlueXPの分類、Snapshot、FlexClone、FlexCacheの機能を活用することで、セキュアなGenAIインフラを効果的に導入、管理できます。

RAGのメリット

  • NFSプロトコルとS3プロトコルの両方をサポートし、RAGワークフローとのシームレスな統合を実現します。この柔軟性により、モデルは、生成プロセス中にさまざまなソースから関連データを効率的に取得して組み込むことができます。
  • 独自のデータとパブリックLLMを組み合わせることで、関連性の高い正確な出力を一貫して提供するRAGオペレーションを実現できます。
  • システムの容量を簡単に拡張できるため、システムを停止することなくRAGデータセットの増加に対応できます。

推論のメリット

  • 低レイテンシでデータにすばやくアクセスし、高速かつ効率的なモデル予測を実現します。これは非常に重要です。推論タスクでは、多くの場合、リアルタイムまたはほぼリアルタイムの応答が必要になるためです。
  • 詳細かつ正確なデータを基に予測を行う推論アプリケーションをサポートする堅牢なファイルシステムにより、データの整合性と信頼性を維持します。
  • 最先端のデータ保護とセキュリティによる信頼性を備えています。FSx for ONTAPは、重要なAIワークロードのバックアップとリカバリを簡易化するだけでなく、推論に使用されるデータを保護し、コンプライアンスを維持します。これにより、データ侵害や規制上の問題に関連するリスクが軽減されます。

Amazon Bedrockの詳細

Amazon Bedrockは、企業によるGenAIアプリケーションの構築と拡張を支援する、フルマネージドのAWSサービスです。大手AI企業の基盤モデルへのアクセスを提供するため、開発者はMLに関する広範な専門知識なしでそれらを統合できます。

Amazon Bedrockのメリット

  • Amazon Titanなどの主要なFMのほか、AI21 Labs、Anthropic、Cohere、Meta、Stability.aiなどのFMから選択できます。これらはすべて共通のAPIからアクセスできます。
  • お客様固有のニーズや好みに合わせてAIモデルをカスタマイズできます。
  • Amazon Bedrockのナレッジベースを使用して、FMから正確でカスタマイズされた応答を取得できます。フルマネージドのこのRAG機能により、コンテキストおよび関連する企業データでFM応答を豊かにすることができます。
  • セキュリティ機能とプライバシー機能を使用して機密情報を保護し、リスクのないオペレーションを実現します。

BedrockとFSx for ONTAPでできること

  • 組織固有のデータでLLMを強化することで、真の競争力を獲得できます。
  • 事前にラベル付けされたデータセットや、カスタムのパラメータや重み付けを使用して微調整することでカスタマイズしたり、ドメインに固有の生データを使用した事前トレーニングを選択してリアルタイム学習を行えます。
  • RAGを使用して内部データセットから情報を取得することで、基本モデルを強化し、エンドユーザに正確な応答を提供します。
  • エージェントを使用して複数ステップのタスクを実行し、会社のシステムとデータ ソースを利用します。たとえば、AWS Lambda関数は、基本的なチャット応答から製品のフルフィルメントまで、幅広いタスクを処理できます。

Amazon SageMakerでAIモデル開発を合理化

Amazon SageMakerは、開発者やデータ サイエンティストがMLモデルを効率的に構築、トレーニング、導入できるようにするための包括的なAWS MLサービスです。これは、高度なAIモデルの開発、トレーニング、導入を合理化するためのツールとインフラを提供し、AIのポテンシャルを最大限に引き出しやすくします。

SageMakerとFSx for ONTAPを使用することで、データ処理とMLの機能を強化し、シームレスな接続を活用して、大規模なデータセットを処理する際のパフォーマンスと効率を最適化できます。

Amazon Kendraでエンタープライズ検索を強化

Amazon Kendraは、NLP機能を使用してエンタープライズ コンテンツの統合検索を可能にするインテリジェントな検索サービスです。これにより、従業員の生産性を向上し、データに基づく意思決定のための分析情報を引き出し、コンタクト センターのコストを削減し、アプリ内検索を強化できます。

高速ストレージ、エンタープライズ データ管理、セキュアなアクセスを実現するFSx for ONTAPを利用することで、Kendraの検索結果の品質を大幅に向上できます。

実際のユースケース

Amazon FSx for NetApp ONTAPを使用すると、生成AIアプリケーションを強化し、目覚ましい成果を達成できます。

  • 顧客サービスの強化。GenAIチャットボットを導入して顧客からの問い合わせに対応することで、応答時間を短縮し、顧客満足度が向上します。FSx for ONTAPのベクター データベースで共有データとエージェント フィードを活用することで、よりスマートで効率的なインタラクションを実現します。
  • 製造業における予知保全。RAGオペレーションを採用することで、製造会社はダウンタイムとメンテナンス コストを削減できます。
  • 金融機関での不正検出。AI推論を使用して不正なトランザクションを予測、防止し、不正に関連する損失を大幅に削減します。
  • 権限に対応したRAGソリューション。この優れたソリューションは、Active Directoryを使用し、ユーザーのアクセス レベルに基づいて情報を提供します。ACL対応の埋め込みエージェントは、セキュリティと効率性のためにFSx for ONTAPにデータを保存します。

エンタープライズGenAIアプリケーションの構築

Amazon FSx for NetApp ONTAPを使用した生成AIの実装は単純で、既存のプロセスと簡単に連携できます。以下は、よくある質問です。

どのモデルを使用すればよいですか。

Amazon Bedrockは、共通のAPIとともに、業界をリードするFMの選択肢をAWSクラウドで提供しています。

今すぐ活用するにはどうすればよいですか。

非構造化ファイル データの情報を最大限に引き出し、拡張型生成AIアプリケーションを構築して生産性を向上してください。

データのセキュリティとプライバシーを確保するにはどうすればよいですか。

Amazon Bedrockのプライバシーと管理機能を、FSx for ONTAPのデータ保護機能と組み合わせます。NetApp BlueXPワークロード ファクトリは、APIを介してBedrockとFSx for ONTAPを自動的に接続して、データの取り込みを容易にし、RAGプロセスをセキュアに最適化します。

次のステップ

詳細情報やデモのスケジュールについては、NetAppのチームにお問い合わせください。NetAppは、あらゆる段階でお客様を支援します。

リソース

Drift chat loading