選單

在 AWS 上推動您的生成式 AI

目錄

分享本頁

釋出生成式 AI 應用程式的完整潛力

在現今資料導向的世界中,生成式 AI (GenAI) 正成為商業實務的重要關鍵。生成式 AI 藉由提高生產力、降低營運成本並提供卓越的客戶體驗,將工作自動化並產生高品質內容,讓您在競爭中保持領先。

掌握智慧見解,保持領先地位

生成式 AI 不只是簡單的自動化。它提供了可據以行動的見解和預測分析,讓您的企業能夠快速回應市場變化和客戶需求。想像一下,您將能夠預測趨勢並即時做出明智的決策,生成式 AI 就能做到這一點。

結合您獨特的資料,獲得無與倫比的準確度

秘密武器?貴組織的專有見解。透過將這些資料與來自大型語言模型 (LLM) 的公用資料合併,您就可以建立一個獨特的混合方案,提供無與倫比的關聯性與精準度。雖然其他人可能可以存取類似的公用資料,但這種組合可以為您提供競爭優勢。

  • 藉由擷取擴增生成 (RAG) 您可以安全地將專有資料與動態公用資料混合,讓您的 AI 專案比以往更具相關性。
  • 使用 AI 推論將學習模式套用於新資料,實現即時工作,例如影像辨識、自然語言處理 (NLP) 和預測分析。
  • 統一化資料儲存讓您得以實現目標。使用整合式資料服務,透過支援所有主要傳輸協定和工具的智慧型資料基礎架構,讓生成式 AI 更貼近您的資料發揮效用。AI 就緒的雲端儲存方案不僅能強化 RAG 和推論,也能作為生成式 AI 工作負載的安全企業架構。統一化資料儲存可協助您有效管理大量的非結構化資料,並輕鬆支援多種使用案例。

什麼是生成式 AI?

生成式 AI 是一種人工智慧技術,可根據文字提示快速建立內容,例如,文字、影像、音樂、音訊、視訊或程式碼。生成式 AI 透過從現有資料建立新內容來強化業務功能。生成式 AI 應用程式由 LLM 和基礎模型 (FMS) 提供支援,這些模型已經使用大量非結構化資料進行了預先訓練。

您可以使用資料自訂這些模型,以因應特定領域的工作,進而改變您的作業方式。

生成式 AI 的優點

  • 利用聊天機器人和虛擬助理來增強客戶體驗和個人化
  • 透過對話式搜尋、摘要、內容建立和程式碼產生來大幅增進員工生產力
  • 最佳化業務流程,例如,文件處理、資料擴增及強化網路安全。

為何要使用 RAG?

RAG 是改變競爭態勢的利器。它可以從訓練集的外部,新增相關的權威資料來改善 LMS,確保回應準確且及時。這使得生成式 AI 應用程式更有效且更可靠,開啟了一個充滿可能性的世界。

RAG 系統分為兩個步驟:首先是允許相關的資料集進入原始模型外部的生成式 AI 傳輸途徑,然後由生成式 AI 模型對查詢產生精確的回應。

RAG 如何改善 AI 回應

RAG 能夠提供全球見解和專業領域知識,讓您的生成式 AI 應用程式保持最新和創新。它結合了擷取機制來提供一種具成本效益且簡化的方法,並納入正確的資料來提高準確性和相關性,如此可將錯誤訊息排除在資料傳輸途徑之外,進而降低風險,使其成為各種應用的有效解決方案。

常見的 RAG 使用案例

  • 透過改善演算法和使用者介面來增強搜尋引擎,以提供更準確和相關的結果。
  • 使用進階演算法和使用者行為分析來改善建議系統,以提供更個人化的建議。
  • 大幅增進虛擬助理的功能以提供更準確且個人化的回應。

在整個資料資料傳輸途徑中納入 5 個 RAG 操作的關鍵

若要充分發揮資料的全部潛能,必須採取策略性方法將生成式 AI 整合到整個營運過程中。以下是協助推動有效 RAG 操作的五種能力。

1

通用資料無所不在

隨著 NetApp® ONTAP® 資料管理方案遍及每一處,您可以輕鬆將任何環境的資料納入其中,以推動您的資料管理工作。ONTAP 軟體可讓您繼續使用一般的作業程序,同時又能降低風險、成本並縮短達成結果的時間。

2

自動化分類和標記

The NetApp BlueXP 分類服務簡化了資料傳輸途徑的資料擷取和推演階段的資料歸類、分類與清理,這意味著系統將會使用正確的資料進行查詢,並根據組織的原則保護敏感資料。

3

快速、可擴充的 Snapshot 複本

NetApp Snapshot 技術可建立近乎即時、極具空間效率的向量儲存區和資料庫原地複本,以每隔一段時間便進行 A/B 測試和恢復作業。您可以執行時間點分析,或是在資料不一致的情況下立即還原至先前的版本。

4

大規模即時 Cloning 複製

NetApp FlexClone® 技術可以建立向量索引儲存區的即時複本,以平行處理 A/B 提示測試和結果驗證。透過 Cloning 複製,您可以安全地立即提供唯一且相關的資料給不同使用者進行查詢,而不會影響核心正式作業資料。

5

分散式快取

NetApp FlexCache® 軟體可讓您在 GPU 作用處使用 AI 資料集來執行推論或協同作業。

推論的角色

在 AI 中,「推論」是一項關鍵過程,可讓機器或演算法使用資料和先備知識來做出決策或預測。藉由運用經過訓練的模型,推論過程會分析新的輸入並提供有價值的輸出,例如對影像進行分類、理解語言或做出選擇。透過推論,AI 可以得出結論並做出更準確、更明智的決策,進而在實際應用中產生更聰明的結果。

推論的使用案例

  • 使用即時分析在收集資料時立即深入瞭解資料,進而快速做出決策並採取回應行動。
  • 應用預測性維護來預測設備故障、防止故障,並延長機器的使用壽命。
  • 偵測並預防詐騙運用先進技術來辨識及規避詐騙活動,藉此維護財務安全與可信度。

適用於 AI 的智慧型資料基礎架構

AI 工作負載需要有效的儲存基礎架構,以便有效管理、儲存、使用 GPU,以及擷取用於訓練和部署 AI 模型所需的龐大資料。Amazon FSx for NetApp ONTAP 在 AWS 原生儲存服務中提供 ONTAP 的完整功能,可簡化資料管理並增強提升 AI 工作負載效能。

為何選擇 Amazon FSx for NetApp ONTAP?

FSx for ONTAP 可與 Bedrock 和 SageMaker 等 AWS 服務搭配使用,它為建置、擴充和管理 AI 應用程式提供強大的基礎,可在整個 AI 生命週期中高效又安全地處理資料。

生成式 AI 的優點

  • 高效能和低延遲對於訓練和部署生成式 AI 模型至關重要,因為這些模型通常需要快速存取大型資料集。FSx for ONTAP 可在單一叢集內整合最多 12 對或 24 個節點,無需在多個檔案系統之間傳遞資料和 I/O。最近的增強功能包括更精細的橫向擴充傳輸處理量,可支援 AWS 中的生式 AI 工作負載。
  • 有效率的資料管理對於處理生成式 AI 模型訓練期間產生的大量資料集和中間輸出至關重要。藉由運用 FSx for ONTAP 以及 NetApp BlueXP 分類、Snapshot、FlexClone 和 FlexCache 的功能,您可以有效部署及管理安全的生成式 AI 基礎架構。

RAG 的優點

  • 由於支援 NFS 和 S3 傳輸協定,可以順暢整合 RAG 工作流程。這種靈活度意味著,模型可以在生成過程中有效地擷取及整合各種來源的相關資料。
  • 混合專有資料與公有 LLM 以進行 RAG 操作,持續提供相關且準確的輸出。
  • 輕鬆擴充系統容量,以在不中斷營運的情況下處理增加的 RAG 資料集。

推論的優點

  • 以低延遲的方式快速存取資料,實現快速高效的模型預測。這一點非常重要,因為推論工作通常需要即時或近乎即時的回應。
  • 強大的檔案系統可支援推論應用程式,並仰賴精準和正確的資料來進行預測,因此資料必須保持一致且可靠
  • 從頂尖的資料保護與安全功能中獲得內在信心。FSx for ONTAP 不僅簡化了重要 AI 工作負載的備份與還原,還能保護用於推論的資料,同時會確保資料符合法規要求,如此可降低資料外洩或法規問題的相關風險。

探索 Amazon Bedrock

Amazon Bedrock 是一項完全託管的 AWS 服務,可協助企業建置和擴充生成式 AI 應用程式。它提供了對頂尖 AI 公司的基礎模型存取,讓開發人員無需廣泛的 ML 專業知識即可整合這些模型。

Amazon Bedrock 優點

  • 從 Amazon Titan 等領先的 FM 以及 AI21 Labs、Anthropic、Cohere、Meta 和 Stability.ai 提供的 FM 中進行選擇,所有這些都可透過通用 API 存取。
  • 自訂 AI 模型以更符合您的特定需求和偏好。
  • 使用 Amazon Bedrock 知識庫從 FM 取得準確、自訂的回應。這種完全託管的 RAG 功能可讓您以關聯式和相關的公司資料來豐富 FM 回應內容。
  • 使用安全性和隱私功能來保護敏感資訊,使營運免於風險。

Bedrock 和 FSx for ONTAP 有何功用?

  • 利用您組織的特定資料來強化 LLM,以實現真正的競爭優勢。
  • 透過微調進行自訂,並搭配預先標記的資料集和自訂參數或權重,或選擇使用專屬於您領域可供即時學習的原始資料進行預先訓練。
  • 透過使用 RAG 從內部資料集擷取資訊來豐富基礎模型並提供終端使用者準確的回應。
  • 使用代理程式來執行多步驟工作,以充分運用公司系統和資料來源。例如,AWS Lambda 函數可以處理各式各樣的工作,從基本的聊天回應到產品配送皆可。

使用 Amazon SageMaker 簡化 AI 模型開發

Amazon SageMaker 是一項全方位的 AWS ML 服務,可讓開發人員和資料科學家有效率地建置、訓練和部署 ML 模型。它提供工具和基礎架構,可簡化進階 AI 模型的開發、訓練和部署,讓 AI 更容易發揮完整潛力。

使用 SageMaker 和 FSx for ONTAP 來強化資料處理和 ML 功能,充分運用順暢連線的優勢,在處理大型資料集時獲得最佳效能和效率。

利用 Amazon Kendra 大幅增進企業搜尋效能

Amazon Kendra 是一項智慧型搜尋服務,它使用 NLP 功能來統一化企業內容的搜尋,可以改善員工生產力、為資料導向型決策提供深入見解、降低聯絡中心成本,並強化應用程式內的搜尋功能。

您可仰賴 FSx for ONTAP 實現快速儲存、進行企業資料管理和安全存取,進而大幅提高 Kendra 搜尋結果的品質。

實際使用案例

使用 Amazon FSx for NetApp ONTAP 來驅動生成式 AI 應用程式,並取得卓越成果。

  • 客戶服務強化:部署生成式 AI 聊天機器人來處理客戶查詢、縮短回應時間並提高客戶滿意度。透過利用 FSx for ONTAP 向量資料庫中的共用資料和代理程式摘要,提供更聰明、更有效率的互動。
  • 製造業的預測性維護:透過 RAG 操作,製造商可以減少停機時間和維護成本。
  • 金融詐騙偵測:使用 AI 推論來預測和預防詐騙交易,大幅減少詐騙相關損失。
  • 權限感知型 RAG 解決方案:這款聰明的解決方案使用 Active Directory,會根據使用者存取層級來提供資訊。它可識別 ACL 的內嵌代理程式,並會將資料儲存在 FSx for ONTAP 上,以確保安全性和效率。

建置企業生成式 AI 應用程式

使用 Amazon FSx for NetApp ONTAP 實作生成式 AI 非常簡單,並可輕鬆與您現有的流程保持一致。以下是一些常見問題:

我應該使用哪種模式?

Amazon bedrock 提供領先業界的 FM 選項,並在 AWS Cloud 中提供通用 API 。

如何快速進展?

解鎖蘊藏在非結構化檔案資料中的知識,並建置擴增生成式 AI 應用程式來提高生產力。

如何保護資料安全與隱私?

結合使用 Amazon Bedrock 的隱私和控制功能以及 FSx for ONTAP 的資料保護功能。NetApp BlueXP 工作負載工廠會透過 API 自動將 Bedrock 連接至 FSx for ONTAP,進而簡化資料擷取並安全地最佳化 RAG 流程。

後續步驟

如需更多詳細資料或安排示範,請聯絡我們的團隊。我們隨時為您提供協助。

資源

Drift chat loading