category
The feature availability information is as follows.
Dynamics 365 Contact Center—embedded | Dynamics 365 Contact Center—standalone | Dynamics 365 Customer Service |
---|---|---|
Yes | Yes | Yes |
这篇常见问题文章有助于回答客户服务中副驾驶功能中负责任地使用人工智能的问题。
Dynamics 365客户服务中的Copilot是什么?
Copilot是一个人工智能驱动的工具,它改变了Dynamics 365客户服务中的代理体验。它提供实时的人工智能辅助,帮助代理更快地解决问题,更有效地处理案件,并自动化耗时的任务。然后,代理商可以专注于为客户提供高质量的服务。
系统的功能是什么?
Copilot提供以下主要功能:
- 问一个问题:这是代理在激活Copilot帮助窗格时看到的第一个选项卡。这是一个与Copilot的对话界面,有助于为代理的问题提供上下文响应。Copilot的回应基于您的组织在设置过程中提供的内部和外部知识来源。
- 撰写电子邮件:Copilot帮助窗格上的第二个选项卡是否帮助代理根据案例的上下文快速创建电子邮件回复,从而减少用户创建电子邮件所需的时间。
- 起草聊天响应:使代理能够通过单击从组织配置的知识源创建对正在进行的数字消息传递对话的响应。
- 总结案例:Copilot在案例表格上为代理人提供案例摘要,以便他们快速了解案例的重要细节。
- 总结对话:Copilot为客服提供客户旅程中关键点的对话摘要,如虚拟客服交接、接送和按需服务。
- 从案例中生成知识草稿(预览):Copilot根据案例中的信息生成知识文章草稿作为提案。代理人可以通过向Copilot发出修订指示来审查和完善草稿,然后保存。
该系统的预期用途是什么?
客户服务中的Copilot旨在帮助客户服务代表更高效、更有效地工作。客户服务代表可以使用Copilot基于知识的响应来节省搜索知识文章和起草响应的时间。副本摘要旨在支持代理人快速处理案件和对话。Copilot在客户服务中生成的内容不得在没有人工审查或监督的情况下使用。
客户服务中的Copilot是如何评估的?使用哪些指标来衡量绩效?
Copilot in Customer Service在设计、开发和发布的每个阶段都与世界各地的客户进行了现实场景的评估。结合研究和业务影响研究,我们评估了关于Copilot的各种定量和定性指标,包括其准确性、有用性和代理信任度。
Copilot在客户服务方面有哪些局限性?用户如何将Copilot限制的影响降至最低?
Copilot基于知识的能力,如提问、写电子邮件和起草聊天回复,都依赖于高质量和最新的知识文章作为基础。如果没有这些知识文章,用户更有可能遇到不真实的副驾驶反应。
为了尽量减少从Copilot看到非事实性回应的可能性,组织必须采用强有力的知识管理实践,以确保与Copilot相关的业务知识是高质量和最新的。
哪些操作因素和设置允许有效和负责任地使用该系统?
始终查看Copilot的结果
Copilot建立在大型语言模型技术之上,本质上是概率性的。当收到一段输入文本时,该模型会根据前面的单词计算该文本中每个单词的概率。然后,该模型选择最有可能跟在后面的单词。然而,由于该模型基于概率,它不能绝对确定地说出正确的下一个单词是什么。相反,它根据从训练数据中学习到的概率分布给我们最好的猜测。Copilot使用了一种称为基础的方法,该方法涉及在输入中添加额外信息,以使输出与组织的上下文相关联。它使用语义搜索来理解输入并检索相关的内部组织文档和可信的公共网络搜索结果,并引导语言模型根据该内容做出响应。虽然这有助于确保Copilot的响应符合组织数据,但在使用Copilot产生的结果之前,始终对其进行审查非常重要。
充分利用Copilot
当你与副驾驶互动时,重要的是要记住,问题的结构会极大地影响副驾驶的反应。为了有效地与Copilot互动,关键是要问清楚具体的问题,提供上下文以帮助人工智能更好地理解你的意图,一次只问一个问题,并避免使用技术术语以提高清晰度和可访问性。
问清楚具体的问题
提问时,明确的意图至关重要,因为它直接影响回答的质量。例如,与更具体的问题(如“我可以采取哪些步骤来确定客户的咖啡机为什么没有启动。
然而,问一个更详细的问题,比如“我可以采取哪些步骤来确定为什么压力等级为5巴的Contoso 900咖啡机无法启动?”,可以缩小问题的范围,提供更多的背景,从而做出更准确和有针对性的回应。
添加上下文
添加上下文有助于对话式AI系统更好地理解用户的意图,并提供更准确和相关的响应。没有上下文,系统可能会误解用户的问题,或提供通用或无关的回答。
例如,“为什么咖啡机不启动?”与“最近,客户在咖啡机上启动了除垢模式并成功完成了除垢。他们甚至收到了最后电源灯的三次闪烁,以确认除垢已完成。为什么他们无法再启动咖啡机?”这样的问题相比,会得到一个通用的回答
以这种方式添加上下文很重要,因为它有助于Copilot更好地理解用户的意图,并提供更准确和相关的响应。
尽可能避免使用技术术语
我们建议您在与Copilot交互时避免使用技术性极强的术语和资源名称,因为系统可能并不总是准确或适当地理解它。使用更简单、自然的语言有助于确保系统能够正确理解用户的意图,并提供清晰、有用的响应。例如——
“更改防火墙配置后,客户无法通过SSH连接到VM。”
相反,你可以重新表述为——
客户更改了其虚拟机上的防火墙规则。但是,他们无法再使用Secure Shell(SSH)进行连接。您能提供帮助吗
通过遵循建议,代理人可以增强与副驾驶的互动,并增加从副驾驶那里收到准确和自信的回应的可能性。
总结或扩展响应
有时,Copilot的反应可能比预期的要长。当代理与客户进行实时聊天对话时,与通过电子邮件发送回复相比,需要发送简洁的回复,情况可能就是这样。在这种情况下,让Copilot“总结回应”将导致对问题的简洁回答。同样,如果需要更多细节,请副驾驶“提供更多细节”将为您的问题提供更详细的答案。如果响应被截断,键入“continue”将显示响应的剩余部分。
我如何影响副驾驶的反应?我可以微调基础LLM吗?
无法直接自定义大型语言模型(LLM)。Copilot的反应可能会受到更新源文档的影响。Copilot响应的所有反馈内容都会被存储。可以使用此数据创建报告,以确定需要更新的数据源。最好有适当的流程来定期审查反馈数据,并确保知识文章为Copilot提供最佳和最新的信息。
Copilot的数据安全模型是什么?
Copilot强制执行定义的基于角色的访问(RBAC)控制,并遵守所有现有的安全构造。因此,代理无法查看他们无权访问的数据。此外,只有代理有权访问的数据源用于生成副驾驶响应。
在哪里进行数据处理和检索以生成副驾驶响应?
Copilot没有调用支持ChatGPT的公共OpenAI服务。客户服务中的Copilot在微软管理的租户中使用微软Azure OpenAI服务。所有数据处理和检索都发生在Microsoft管理的租户内。此外,客户的数据不会被共享,也不会反馈到公共模型中。
Copilot从案例和对话中生成的摘要的语言限制是什么?
Copilot生成的案例和对话摘要支持多种语言。预计这些摘要的英文质量最高,而其他语言的质量预计会随着时间的推移而提高。
相关信息
- Use copilot features
- Use Copilot to generate knowledge drafts from cases
- Region availability of Copilot
- FAQ for Copilot data security and privacy in Microsoft Power Platform
- 登录 发表评论
- 2 次浏览
最新内容
- 1 week 5 days ago
- 2 weeks 6 days ago
- 3 weeks 2 days ago
- 3 weeks 2 days ago
- 3 weeks 5 days ago
- 3 weeks 6 days ago
- 4 weeks ago
- 4 weeks 1 day ago
- 4 weeks 1 day ago
- 4 weeks 1 day ago