跳转到主要内容

热门内容

今日:


总体:


最近浏览:


Chinese, Simplified

category

介绍


本节为在生产环境中启动、操作和增强Generative AI应用程序提供了全面的指南。它封装了基本功能,从提供创新体验到确保强大的安全性和隐私性,以及管理人工智能解决方案的生命周期。驾驭分布式系统的复杂性是一项艰巨的任务,而生成式人工智能模型的不可预测性进一步加剧了这一任务。本节旨在整合关键信息和最佳实践,使其易于获取和理解。它包括指向其他资源的链接,帮助跨多个学科的不同团队获得成功所需的见解。

生成式人工智能解决方案


大型语言模型(LLMs)是企业生成人工智能应用程序的核心。它们可以处理和生成自然语言,但需要额外的组件来处理用户交互、安全性和其他功能,以响应或处理用户输入。形成功能解决方案的这些组件和服务的集合称为生成式AI应用程序。开发Gen AI应用程序的最佳实践是遵循标准的AI生命周期,同时利用大型语言模型操作(LLMOps)工具和流程来促进和简化步骤。

生成式AI应用程序堆栈图1:生成式人工智能应用程序堆栈

缺乏统一的工具集来监督单个组件和服务的开发,这意味着创建全面的端到端解决方案需要使用连接代码和自定义函数。这些对于将各种产品和服务无缝集成到为企业量身定制的高质量生成人工智能应用程序中至关重要。

以下部分将探讨这些组件中的每一个,以及帮助我们的客户开发、部署和维护生成式人工智能解决方案的工具和流程。我们专注于ISE在客户中看到的顶级用例,这些用例主要是语言到语言或语言到行动的解决方案。图像生成的底层组件是相似的,但我们在此不探讨其中的差异。

AI生命周期


我们将把我们的能力建立在Gen AI应用程序生命周期的背景下,该生命周期具有定制ML和大型语言模型解决方案的标准阶段。这个生命周期代表了随着时间的推移准备、部署和改进Gen AI应用程序的典型迭代方法。

AI解决方案生命周期图2:AI解决方案的生命周期:数据科学和机器学习工程

企业生成人工智能应用


管理服务


托管服务允许访问大型语言模型,并提供内置服务以使模型适应特定用例,可能包括与现有工具和基础设施集成的功能。企业部署还需要服务来管理机器学习生命周期(MLOps)。微软的生成式AI和ML生命周期管理服务的示例包括Azure AI搜索、Azure OpenAI服务和Azure ML服务。

人工智能解决方案框架


后端系统通过促进对语言模型(LLM)的访问、监督数据处理和启用认知技能来编排大型语言模型应用程序中的数据工作流。它分解任务并调用代理或库,从而增强LLM的功能。这种集成的例子包括语义内核和LangChain。

客户端应用程序


应用程序提供了用户如何与解决方案交互的“画布”,以及使解决方案有用所需的所有支持功能。最常见的用户界面示例是基于聊天的。应用程序示例和前端工具包括Microsoft Co-pilot、Teams和Power虚拟代理(PVA)。

部署监控和可观察性


这涉及跟踪生成式人工智能应用程序的性能和健康状况。它包括收集指标、日志和跟踪,以了解系统的运行情况,并了解其在任何给定时刻的状态。在生成式人工智能中,这可能意味着监控模型的性能、数据吞吐量和响应时间,以确保系统按预期运行。

安全和隐私


这些都是关键方面,包括保护Generative AI应用程序免受未经授权的访问,并确保数据的机密性、完整性和可用性。它还涉及保护应用程序使用的数据的隐私,包括采取措施防止数据泄露和泄漏,并确保遵守数据保护法规。有关更多信息,请参阅LLM安全建议和LLM应用程序安全计划。

数据平台


这是支持Generative AI应用程序使用的大量数据的存储、处理和分析的底层基础设施。它包括数据库、数据湖和其他存储系统,以及用于数据摄取、转换和查询的工具和服务。一个强大的数据平台对于快速工程、微调和有效操作生成式人工智能模型至关重要。

LLMOps


大型语言模型操作(LLMOps)充当协调器,协调管理上述所有组件。LLMOps是指促进基于LLM的应用程序的开发、集成、测试、发布、部署和监控的一组实践、技术和工具。它建立了操作框架,确保这些元素在整个应用程序生命周期中平稳高效地相互作用。LLMOps确保LLM在集成到Generative AI应用程序中时保持可靠、高效和最新。

这些组件协同工作,为生成式人工智能应用程序的开发、部署、操作和发展创造一个稳定、安全和高效的环境。

本文地址
最后修改
星期六, 十月 5, 2024 - 23:00
Article