基于肢体行为生成交互内容的方法、装置及设备与流程

allin2025-12-03  23


本申请涉及通信,尤其是涉及一种基于肢体行为生成交互内容的方法、装置及设备。


背景技术:

1、在许多线上实时交互场景中,用户可以通过语音或文字输入的方式,与其他用户实现沟通。但是目前语音沟通的方式,由于各个用户发音习惯不同,在用户讲方言或讲不同国家语言的情况下,存在理解困难的问题;文字输入的方式可能会出现无法充分表达自己意图的情况;因此,目前的线上沟通方式存在沟通效率低的问题。


技术实现思路

1、本申请的目的在于提供一种基于肢体行为生成交互内容的方法、装置及设备,从而解决现有的交互方式沟通效率低的问题。

2、第一方面,为了达到上述目的,本申请的实施例提供一种基于肢体行为生成交互内容的方法,包括:

3、获取第一用户的当前交互过程所处的背景信息;

4、获取所述第一用户的肢体行为时序数据;

5、根据所述肢体行为时序数据,确定所述第一用户的目标意图信息;

6、根据所述背景信息和所述目标意图信息,生成交互内容。

7、可选地,获取第一用户的当前交互过程所处的背景信息,包括:

8、获取与所述当前交互过程相关的多维度信息;其中,所述多维度信息包括所述第一用户当前所处的场景信息、采集所述肢体行为时序数据的传感器信息、用户属性信息、预先配置的外部数据源信息和历史对话上下文信息中的一项或多项;

9、根据所述多维度信息,获取所述背景信息。

10、可选地,根据所述肢体行为时序数据,确定所述第一用户的目标意图信息,包括:

11、在所述肢体行为时序数据由不同类型的传感器采集的情况下,针对每一类型的肢体行为时序数据,根据所述肢体行为时序数据的数据质量,确定所述肢体行为时序数据的识别权重;

12、根据预先配置的肢体行为特征库,确定与各类型的所述肢体行为时序数据对应的候选意图信息和所述候选意图信息的意图权重;

13、根据所述识别权重、所述肢体行为时序数据的类型对应的比重和所述意图权重,在所述候选意图信息中选择所述目标意图信息。

14、可选地,根据预先配置的肢体行为特征库,确定与各类型的所述肢体行为时序数据对应的候选意图信息和所述候选意图信息的意图权重,包括:

15、针对各类型的肢体行为时序数据,将所述肢体行为时序数据与所述肢体行为特征库中同类型的肢体行为数据进行相似性匹配,获取与所述肢体行为时序数据对应的标准肢体行为数据;

16、确定与所述标准肢体行为数据对应的意图信息为所述候选意图信息;

17、根据所述标准肢体行为数据的相似度和预先配置的意图信息的权重,确定所述候选意图信息的意图权重。

18、可选地,所述方法还包括:

19、获取所述第一用户和/或第二用户反馈的针对所述交互内容的评价信息;其中,所述第二用户为与所述第一用户进行交互的用户;

20、根据所述评价信息,优化所述肢体行为特征库。

21、可选地,所述目标意图信息为结构化数据,其中,所述目标意图信息包括句式类型字段、情感程度字段、意图目标字段、关键要素字段和内容要求字段中的一项或多项。

22、第二方面,为了达到上述目的,本申请的实施例提供一种基于肢体行为生成交互内容的装置,包括:

23、第一获取模块,用于获取第一用户的当前交互过程所处的背景信息;

24、第二获取模块,用于获取所述第一用户的肢体行为时序数据;

25、确定模块,用于根据所述肢体行为时序数据,确定所述第一用户的目标意图信息;

26、生成模块,用于根据所述背景信息和所述目标意图信息,生成交互内容。

27、第三方面,为了达到上述目的,本申请的实施例提供一种通信设备,包括:收发机、处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的基于肢体行为生成交互内容的方法。

28、第四方面,为了达到上述目的,本申请的实施例提供一种可读存储介质,所述可读存储介质上存储有程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的基于肢体行为生成交互内容的方法。

29、第五方面,为了达到上述目的,本申请的实施例提供一种计算机程序产品,包括计算机指令,所述计算机指令被处理器执行时实现如第一方面所述的基于肢体行为生成交互内容的方法。

30、本申请的上述技术方案至少具有如下有益效果:

31、本申请实施例的基于肢体行为生成交互内容的方法,首先,获取第一用户的当前交互过程所处的背景信息;其次,获取所述第一用户的肢体行为时序数据;再次,根据所述肢体行为时序数据,确定所述第一用户的目标意图信息;最后,根据所述背景信息和所述目标意图信息,生成交互内容。如此,无需用户输入任何信息(文字信息或语言),仅根据用户的肢体行为和用户所处的背景信息即可推测出用户的交互内容,提升了沟通效率。



技术特征:

1.一种基于肢体行为生成交互内容的方法,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,获取第一用户的当前交互过程所处的背景信息,包括:

3.根据权利要求1所述的方法,其特征在于,根据所述肢体行为时序数据,确定所述第一用户的目标意图信息,包括:

4.根据权利要求3所述的方法,其特征在于,根据预先配置的肢体行为特征库,确定与各类型的所述肢体行为时序数据对应的候选意图信息和所述候选意图信息的意图权重,包括:

5.根据权利要求3所述的方法,其特征在于,所述方法还包括:

6.根据权利要求1所述的方法,其特征在于,所述目标意图信息为结构化数据,其中,所述目标意图信息包括句式类型字段、情感程度字段、意图目标字段、关键要素字段和内容要求字段中的一项或多项。

7.一种基于肢体行为生成交互内容的装置,其特征在于,包括:

8.一种通信设备,其特征在于,包括:收发机、处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至6中任一项所述的基于肢体行为生成交互内容的方法。

9.一种可读存储介质,其特征在于,所述可读存储介质上存储有程序或指令,所述程序或指令被处理器执行时实现如权利要求1至6中任一项所述的基于肢体行为生成交互内容的方法。

10.一种计算机程序产品,其特征在于,包括计算机指令,所述计算机指令被处理器执行时实现如权利要求1至6中任一项所述的基于肢体行为生成交互内容的方法。


技术总结
本申请公开了一种基于肢体行为生成交互内容的方法、装置及设备,涉及计算机技术领域,所述方法包括:获取第一用户的当前交互过程所处的背景信息;获取所述第一用户的肢体行为时序数据;根据所述肢体行为时序数据,确定所述第一用户的目标意图信息;根据所述背景信息和所述目标意图信息,生成交互内容。本申请的方案实现了基于用户所处的背景信息和肢体行为时序数据生成用户的交互内容,如此,解决了由于语言差异导致理解困难、文字输入方式无法充分表达自己的意图的情况,导致沟通效率低的问题。

技术研发人员:杨超,徐玮祎,凌翔,李晓耕,万松
受保护的技术使用者:咪咕视讯科技有限公司
技术研发日:
技术公布日:2024/10/31
转载请注明原文地址: https://www.8miu.com/read-25059.html

最新回复(0)