火山引擎豆包大模型产品专家:AI客服服务升级的关键密码
过去两年大模型的技术发展非常快,在智能客服这个领域,火山引擎看到且参与到了很多实际的项目中。本届大会,火山引擎豆包大模型产品专家刘一受邀进行分享。他从大语言模型的视角看大语言模型在客服领域应用的趋势,以及观察到的在这个趋势之下模型需要具备什么样的能力?豆包又具体做了哪些方面的提升?
因为大模型比传统的客服能力有显著提升,包括语义的提取、理解上下文、把握对话的能力,那么如何利用好这些增值的能力去产生新的业务价值也是大家想了解的议题。
因为客服的场景涉及的子场景是很多的,每一个场景对本身模型能力的要求是不同的,在落地过程中可能需要的配套模型的落地工具也有一些不同。
营收核心是利用大模型产生出来的一些传统客服没有的能力,怎么利用这些能力更好地去多做一些任务,释放人的精力,投入到更有价值的业务节点上,一个比较典型的场景就是电销和外呼。
基于需要,我们专门开发了一个上下文缓存的能力,基于和豆包大模型的配合就能非常智能地记录上下文,可以根据企业的要求丢弃重复的内容,而且对于监测到的重复内容价格也会更低。
在背后其实我们也有一整套围绕在大模型外围的一个知识库的方案,可以被集成到这些客服的应用型的系统里,如上图左侧是一个非常典型的怎么去做知识库检索的处理流程。
不同的场景有不同的诉求,所以火山也针对性地有非常多的分支供大家从模型层面进行选择。
还有一个是现在在公开测试马上就会正式发布的一个多模态的 vision Pro模型,它能够同时理解用户输入的文字和图片。以上就是针对不同的客户场景下,我们从模型这个层面上做的多样性的能力的提供。
大模型的能力会不断地迭代,期待未来有机会和大家一起打造出有温度、更聪明的AI客服。