菜单

在 AWS 上为您的生成式 AI 提供动力

目录

分享该页面

充分发挥生成式 AI 应用程序的全部潜能

在当今数据驱动的环境中,生成式 AI (GenAI) 正成为业务实践中不可或缺的一部分。通过提高工作效率、降低运维成本并提供卓越的客户体验,GenAI 可以自动执行任务并生成高质量的内容,让您在竞争中保持领先地位。

明智的洞察帮助保持领先地位

GenAI 不仅仅是简单的自动化。它提供可指导行动的洞察和预测性分析,让您的企业能够对市场变化和客户需求做出迅速反应。想象一下能够实时预测趋势并做出明智决策的情景 — GenAI 让这一切成为可能。

结合您的独特数据,实现无与伦比的准确性

秘诀是什么?组织所具备的专有洞察力。通过将这份专有洞察力与大型语言模型 (LLM) 的公共数据相结合,您可以创建一个独特的混合环境,提供更胜一筹的相关性和准确性。虽然其他人可能有途径访问到类似的公共数据,但这种组合让您技高一筹,更具竞争力。

  • 借助检索增强型生成 (RAG),您可以安全地混合使用专有数据与动态公共数据,使您的 AI 项目拥有超越以往的相关性。
  • 使用 AI 推理将习得的模式应用于新数据,从而完成图像识别、自然语言处理 (NLP) 和预测性分析等实时任务。
  • 统一数据存储让这一切成为可能。借助支持所有主要协议和工具的智能数据基础架构,通过集成数据服务将 GenAI 的强大功能更紧密地连接到您的数据上。AI 就绪的云存储不仅可以增强 RAG 和推理,还可以作为 GenAI 工作负载的安全企业级框架。利用统一数据存储高效管理庞大的非结构化数据存储库,同时轻松支持多种使用情形。

什么是 GenAI?

GenAI 是一种人工智能,可根据文本提示快速创建内容(包括文本、图像、音乐、音频语音、视频或代码)。GenAI 通过从现有数据创建新内容来增强业务功能。GenAI 应用程序由在大量非结构化数据上经过预先训练的 LLM 和基础模型 (FM) 提供支持。

您可以使用数据自定义这些模型,以便执行特定领域的任务,从而帮助实现运维转型。

GenAI 的优势

  • 利用聊天机器人和虚拟助手增强客户体验和个性化
  • 通过对话搜索、总结、内容创建和代码生成提高员工工作效率
  • 优化业务流程,例如文档处理、数据增强和增强型网络安全。

为什么使用 RAG?

因为 RAG 率先改变了游戏规则。它通过添加来自训练集之外的相关权威数据来改进 LLM,确保响应准确且及时。这使得生成式 AI 应用程序更加有效和可靠,从而开启了一个充满可能性的世界。

RAG 系统分两步工作:首先,它们允许相关数据集进入原始模型之外的 GenAI 管道,然后,GenAI 模型针对查询生成精确响应。

RAG 如何改进 AI 响应

RAG 能够提供全球洞察力和专业领域知识,让您的 GenAI 应用程序保持最新和创新。它采用检索机制,通过纳入正确的数据来提高准确性和相关性,从而提供一种经济高效的精简方法。这样可以通过将错误信息排除在数据管道之外来降低风险,使其成为适用于各种应用程序的高效解决方案。

RAG 的常见使用情形

  • 通过改进算法和 UI 来增强搜索引擎,以提供更准确和更相关的结果。
  • 使用高级算法和用户行为分析改进建议系统,以提供更加个性化的建议。
  • 提升虚拟助手的功能,以提供更准确和更个性化的响应。

在整个数据管道中注入 RAG 操作的 5 个关键要素

要充分发挥数据的全部潜能,需要采取战略性方法在整个运维过程中集成 GenAI。以下五项功能有助于推动有效的 RAG 工作。

1

无处不在的通用数据

借助可随处使用的 NetApp® ONTAP® 数据管理,您可以轻松地纳入来自任何环境的数据,从而推动您的 RAG 工作。借助 ONTAP 软件,您可以使用通用操作流程,同时降低风险、降低成本并缩短取得成果的时间。

2

自动分类和标记

NetApp BlueXP 分类服务可简化数据管道的载入和推理阶段的数据归类、分类和清理。这意味着会使用正确的数据进行查询,并根据组织的策略保护敏感数据。

3

快速、可扩展的 Snapshot 副本

NetApp Snapshot 技术可为向量存储库和数据库创建近乎即时且节省空间的原位副本,以用于基于间隔的 A/B 测试和恢复。您可以执行时间点分析,如果数据不一致,可立即还原到先前版本。

4

大规模实时克隆

NetApp FlexClone® 技术可以即时克隆向量索引存储库以并行处理 A/B 提示测试和结果验证。通过克隆,您可以安全地将唯一相关的数据即时提供给不同用户供其查询,而不会影响核心生产数据。

5

分布式缓存

借助 NetApp FlexCache® 软件,您可以在 GPU 的强劲动力点使用 AI 数据集进行推理或协作。

推理的作用

在 AI 中,推理是一个关键过程,它允许机器或算法利用数据和先验知识做出决策或预测。利用经过训练的模型,推理过程可分析新的输入并提供有价值的输出,例如对图像进行分类、理解语言或做出选择。利用推理,AI 可以得出结论,做出更准确、更明智的决策,从而在实际应用中获得更智能的结果。

推理的使用情形

  • 使用实时分析在收集数据时立即洞察数据,从而快速制定决策并采取响应式措施。
  • 应用预测性维护来预测设备故障,防止故障发生并延长机器使用寿命。
  • 通过实施先进的技术来识别和减少欺骗活动,从而检测和防止欺诈行为,同时维护金融安全和信任。

面向 AI 的智能数据基础架构

AI 工作负载需要有效的存储基础架构来实现高效管理、存储、GPU 利用以及训练和部署 AI 模型所需的海量数据的检索。Amazon FSx for NetApp ONTAP 通过 AWS 原生存储服务提供 ONTAP 的全部功能,从而简化数据管理并增强 AI 工作负载性能。

为什么选择 Amazon FSx for NetApp ONTAP?

FSx for ONTAP 可与 Bedrock 和 SageMaker 等 AWS 服务一起运行。它为构建、扩展和管理 AI 应用程序、在整个 AI 生命周期内高效安全地处理数据奠定了坚实的基础。

生成式 AI 的优势

  • 高性能和低延迟对于训练和部署生成式 AI 模型至关重要,因为生成式 AI 模型通常需要快速访问大型数据集。FSx for ONTAP 不会在多个文件系统之间分布数据和 I/O,而是在一个集群中整合多达 12 个对或 24 个节点。最近的增强功能包括更精细的横向扩展吞吐能力,支持 AWS 中的 GenAI 工作负载。
  • 高效的数据管理对于处理在 GenAI 模型训练期间生成的大量数据集和中间输出至关重要。通过利用 FSx for ONTAP 以及 NetApp BlueXP 分类、Snapshot、FlexClone 和 FlexCache 的功能,您可以有效地部署和管理安全的 GenAI 基础架构。

RAG 的优势

  • 通过支持 NFS 和 S3 协议,实现与 RAG 工作流的无缝集成。这种灵活性意味着模型可以在生成过程中有效地检索和整合来自各种来源的相关数据。
  • 结合利用专有数据与公共 LLM,实现始终提供相关准确输出的 RAG 操作。
  • 轻松扩展系统容量,无需中断即可处理更多的 RAG 数据集。

推理的优势

  • 以低延迟快速访问数据,以便快速高效地预测模型。这一点至关重要,因为推理任务通常需要实时或近乎实时的响应。
  • 通过支持推理应用程序的强大文件系统保持数据一致且可靠,因为推理应用程序依赖于使用准确的数据进行预测。
  • 一流的数据保护和安全性将信任置入数据之中。FSx for ONTAP 不仅可以简化关键 AI 工作负载的备份和恢复,还可以保护用于推理的数据并保持合规,由此降低数据泄露或监管问题等相关风险。

探索 Amazon Bedrock

Amazon Bedrock 是一项完全托管的 AWS 服务,可帮助企业构建和扩展 GenAI 应用程序。它支持访问顶级 AI 公司的基础模型,使开发人员无需丰富的 ML 专业知识即可集成这些模型。

Amazon Bedrock 的优势

  • 从领先的基础模型中进行选择,如 Amazon Titan 以及 AI21 Labs、Anthropic、Cohere、Meta 和 Stability .ai 等,所有这些都可通过通用 API 进行访问。
  • 自定义 AI 模型以更好地满足您的特定需求和偏好。
  • 使用 Amazon Bedrock 的知识库从基础模型获得准确的自定义响应。该完全托管的 RAG 功能使您能够使用上下文和相关公司数据丰富基础模型响应。
  • 使用安全和隐私功能保护敏感信息,确保无风险操作。

Bedrock 和 FSx for ONTAP 协力可实现的优势

  • 利用特定于组织的数据为 LLM 提供强劲动力,打造真正的竞争优势。
  • 通过微调进行自定义,使用预先标记的数据集和自定义参数或权重进行微调,或者选择使用特定于您的领域的原始数据进行预训练以便实时学习。
  • 通过使用 RAG 从内部数据集中检索信息丰富基础模型并为最终用户提供准确的响应。
  • 使用代理执行多步任务,同时利用公司系统和数据源。例如,AWS Lambda 函数可以处理从基本聊天响应到产品履行等一系列任务。

借助 Amazon SageMaker 简化 AI 模型开发

Amazon SageMaker 是一项全面的 AWS ML 服务,支持开发人员和数据科学家高效地构建、训练和部署 ML 模型。它提供的工具和基础架构可简化高级 AI 模型的开发、训练和部署,更易于发挥 AI 的全部潜能。

使用 SageMaker 和 FSx for ONTAP 增强数据处理和 ML 功能,利用无缝连接在处理大型数据集时获得最佳性能和效率。

借助 Amazon Kendra 提升企业级搜索

Amazon Kendra 是一项智能搜索服务,可使用 NLP 功能对企业内容进行统一搜索。它可以提高员工的工作效率,获得数据驱动型决策的洞察力,降低联系中心成本并增强应用程序内搜索。

借助 FSx for ONTAP 实现快速存储、企业级数据管理和安全访问,显著提高 Kendra 搜索结果的质量。

实际使用情形

使用 Amazon FSx for NetApp ONTAP 为生成式 AI 应用程序提供支持并取得显著成果。

  • 提升客户服务。部署 GenAI 聊天机器人来处理客户咨询、缩短响应时间并提高客户满意度。在 FSx for ONTAP 上利用向量数据库中的共享数据和代理源,提供更智能、更高效的交互。
  • 将预测性维护用于制造业。通过采用 RAG 操作,制造商可以减少停机时间和维护成本。
  • 将欺诈检测用于金融业。使用 AI 推理功能预测和防止欺诈交易,大幅减少与欺诈相关的损失。
  • 权限感知型 RAG 解决方案。利用 Active Directory,该智能解决方案可根据用户访问级别提供信息。ACL 感知型嵌入代理将数据存储在 FSx for ONTAP 上,以提高安全性和效率。

构建企业级 GenAI 应用程序

使用 Amazon FSx for NetApp ONTAP 实施生成式 AI 非常简单,而且可以轻松地与您的现有流程保持一致。下面是一些常见问题:

我应该使用哪种模型?

Amazon Bedrock 在 AWS 云中提供通用 API,您可以自由选择领先的基础模型。

如何快速行动?

解锁非结构化文件数据知识,构建增强型生成式 AI 应用程序以提高工作效率。

如何确保数据安全和私密?

将 Amazon Bedrock 的隐私和控制与 FSx for ONTAP 的数据保护相结合。NetApp BlueXP 工作负载工厂通过 API 自动连接 Bedrock 与 FSx for ONTAP,从而简化数据载入并安全优化 RAG 流程。

下一步行动

如需更多详细信息或想要申请安排演示,请联系我们的团队。我们将在整个过程中为您提供帮助。

资源

Drift chat loading