智能客服不智能这件事,已经是困扰大家多年的顽疾。以至于当大模型(LLM)技术问世之后,大家都殷切希望其能够让“智障客服”变身真正意义上的智能客服。然而事与愿违,日前新华社刊发的《“转人工客服”,少打弯弯绕!》,就直接点名了当前智能客服依旧存在沟通答非所问、“鸡同鸭讲”的问题。
新华社在文中援引市场监管总局此前公布的数据显示,在电商售后服务领域“智能客服”受诟病,2024年相关投诉同比增长56.3%。为什么本是为了解决问题的智能客服,如今会成为问题本身?事实上,早在2022年1月《人民日报》就曾指出,“智能客服不智能,AI反倒成障碍。”
彼时,智能客服存在回答生硬机械、难以准确理解用户提问、不能解决个性化问题等缺陷。在AI大模型技术商业化之前,智能客服之所以会“听不懂人话”、“答非所问”,是因为当时的智能客服产品基本使用的还是检索式系统。检索式智能客服其实并不智能,实际上只是一个丐版的搜索引擎。
检索式智能客服的运行模式与搜索引擎类似,都是从固定的索引库中选择答案。只不过搜索引擎是通过爬虫来抓取全网资源,检索式智能客服的索引库则是厂商事先搭建,当用户进行询问时,再基于关键字匹配、文本相似度算法,从预设的内容中选取答案。
相比几乎索引了整个互联网的搜索引擎数据库,智能客服依赖的数据库可以说是小得可怜,所以难以回答预设答案之外的问题。一旦用户提出的问题不在预设数据库中,为了避免对话中断、让用户产生客服逃避问题的感受,智能客服往往就会使用固定的套词来“打圆场”。
正是这种勉强维持对话的状态,让用户会产生“一拳打在棉花上”的感觉。如此一来,AI大模型岂能不成为解决传统智能客服产品缺陷的曙光?想必凡是用过ChatGPT、DeepSeek的朋友都能体会到,AI大模型生成的回答更自然、更灵活,也更有“人味”。
AI大模型的“共情”虽然仍是算法模拟的结果,但确实在一定程度上实现了感知用户情绪,并通过语气、用词调整沟通策略来提高情绪价值。基于大模型的AI客服才是大众认知中的智能客服,这也是过去两年间,诸如“大模型将推动智能客服市场飞速增长”这一言论遍地开花的原因。
可现实却是新华社发文点名智能客服答非所问,那么问题究竟出在哪里呢?其实这是因为AI大模型现在并没有被广泛应用在智能客服市场,大家现在面对的智能客服与大模型技术问世前完全一样。
我们之所以会这样说,盖因智能客服如果真的蜕变为大模型加持的AI客服,它出现的问题绝不是“鸡同鸭讲”,而是回答的内容尽管会看似有理有据,实则胡说八道。“鸡同鸭讲”实际上是智能客服自然语言理解能力不足,以及数据库有限的结果,大模型则不会“鸡同鸭讲”,它的缺陷是幻觉,但是会顺着你的话胡诌。
为什么智能客服不升级成基于大模型的AI客服?这其实是企业出于成本和安全的考量。虽然大模型行业已经经历了数轮价格战,每百万Tokens(处理文本最小单位)输入和输出价格都降到了很低的价格,但“抛开毒性谈剂量”显然不合适,目前大模型商业化真正的挑战就在于Tokens的消耗量巨大。
不久前OpenAI的CEO Sam Altman就曾向全球用户喊话,别再对AI说“谢谢”了,因为这一句礼貌用语直接让OpenAI额外花费了数千万美元的运营成本。
简而言之,用户每一次与AI的对话其实都是要钱的,由于需要服务器进行计算,进而就会产生算力、电量、散热等成本。即便是私有部署的大模型,GPU、电力、水资源等成本,同样是一笔惊人的数字。
如果使用大模型厂商的API,采取云端部署AI客服的方式,即便忽略API的成本,也有另一个问题,那就是安全性。毕竟这就意味着企业要将自己的知识库上传到云端,这一过程会带来信息泄露的问题,以至于有相当多的企业望而却步。
所以大模型加持的AI客服固然效果出色,可高昂的成本和安全风险导致了大量企业暂时还对其敬谢不敏。毕竟传统的智能客服只是不智能,又不是不能用。