技术领域
[0001] 本公开属于手语翻译技术领域,更具体地说,是涉及手语翻译方法及系统。
相关背景技术
[0002] 智能眼镜进行手语翻译技术具有广阔的发展前景。随着技术的不断进步,智能眼镜的性能将不断提高,识别准确率和翻译速度将不断提升。同时,随着社会对聋哑人群体的关注度不断提高,这项技术的应用范围也将不断扩大。未来,智能眼镜有望成为聋哑人日常生活和工作中不可或缺的辅助工具。
[0003] 然而,目前利用智能眼镜进行手语翻译的技术依然存在问题和不足。实现实时的手语翻译需要强大的计算能力和大量的存储空间,智能眼镜作为一种便携设备,其计算资源和存储容量有限,难以满足复杂的手语识别和翻译算法的需求。因此现有的智能眼镜往往通过摄像头采集图像信息并传输到其他设备进行图像识别和手势翻译,以减轻智能眼镜的计算压力。但是,手势翻译通常需要实时进行,将手势图像传输给其他设备(如智能手机)进行翻译的方式通常会花费一定的时间,尤其是当图像数据量较大时。同时,智能手机在接收到手势图像后才开始进行特征提取,这是一个顺序的过程。在提取特征之前,必须先完成图像的接收,无法进行并行处理。这导致了整个手语翻译过程的效率较低,难以满足用户的需求。
具体实施方式
[0017] 以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
[0018] 为使本公开的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
[0019] 请参考图1,图1为本公开一实施例提供的手语翻译方法的流程示意图,该方法可以包括S101至S102。
[0020] S101:响应于第一设备处于第一翻译模式,基于手势图像提取手势特征,将手势特征和第一翻译指令发送给第二设备。第二设备为与第一设备连接的设备。第一翻译指令用于指示第二设备对手势特征进行翻译。
[0021] 在本实施例中,第一设备可以包括可穿戴设备,例如智能眼镜。基于手势图像提取手势特征,包括:基于第一手语识别模型从手势图像中提取手部特征、头部特征和眼部特征。
[0022] 第一翻译指令用于指示第二设备对手势特征进行翻译,包括:第一翻译指令指示第二设备基于第一手语翻译模型对手势特征进行翻译。
[0023] 在本实施例中,当第一设备(例如智能眼镜)处于第一翻译模式时,首先,智能眼镜的摄像头采集到包含手语动作的手势图像。然后,利用内置的第一手语识别模型,对手势图像进行处理,分别提取手部特征、头部特征和眼部特征。手部特征可以包括手的形状、手指的位置和动作等特征,头部特征可以提供手语表达者的头部姿态和面部表情信息,辅助判断手语的语境和情感倾向。眼部特征则可以反映表达者的注意力方向和眼神交流等信息,进一步丰富手语表达的内涵。最后,将提取出的手势特征和第一翻译指令发送给与之连接的第二设备,指示第二设备利用第一手语翻译模型对手势特征进行翻译。
[0024] 在本实施例中,手语翻译方法还包括:确定第一手势的手势权重为第一权重,第一手势为单义手势。
[0025] 确定第二手势的手势权重为第二权重,第二权重基于第二手势的含义数量确定,第二手势为多义手势。
[0026] 在本实施例中,基于手势图像提取手势特征包括:基于手势图像确定各个手势的手势类别,手势类别包括单义手势或多义手势。
[0027] 提取手势图像中各个单义手势的手势特征,确定各个单义手势的第一权重。
[0028] 提取手势图像中各个多义手势的手势特征,确定各个多义手势的第二权重,第二权重基于多义手势的含义数量确定。
[0029] 基于各个单义手势的手势特征和各个单义手势的第一权重确定第一目标特征向量。
[0030] 基于各个多义手势的手势特征和各个多义手势的第二权重确定第二目标特征向量。
[0031] 将第一目标特征向量和第二目标特征向量进行融合,得到目标手势特征向量。
[0032] 相应地,将手势特征和第一翻译指令发送给第二设备,包括:将目标手势特征向量和第一翻译指令发送给第二设备,第一翻译指令具体用于指示第二设备对目标手势特征向量进行翻译。
[0033] 在本实施例中,第一设备可以建立与第二设备的通信连接,确保能够快速、稳定地将手势特征和翻译指令发送给第二设备。可以采用蓝牙、Wi‑Fi等无线通信技术。
[0034] 示例性的,在学校课堂上,聋哑学生佩戴智能眼镜,老师在讲课时使用手语辅助讲解。智能眼镜处于第一翻译模式,当学生看到老师的手语时,眼镜的摄像头采集手势图像,提取手部、头部和眼部特征。例如,手部特征显示老师做出一个表示“问题”的手语动作,头部微微倾斜表示询问,眼部特征显示老师在关注学生的反应。这些特征被发送给连接的平板电脑(第二设备),平板电脑根据接收到的手势特征进行翻译,并将翻译结果“老师有一个问题”显示在屏幕上或者智能眼镜的镜片上,学生可以通过显示的文字理解老师的意思,从而更好地参与课堂学习。
[0035] S102:响应于第一设备处于第二翻译模式,将手势图像和第二翻译指令发送给第二设备。第二翻译指令用于指示第二设备对手势图像进行翻译。
[0036] 在本实施例中,手语翻译方法还包括:响应于收到第一触发指令,控制第一设备处于第一翻译模式。
[0037] 响应于收到第二触发指令,控制第一设备处于第二翻译模式。
[0038] 在本实施例中,通过特定的触发指令来控制第一设备在不同的翻译模式之间切换。当第一设备接收到第一触发指令时,第一设备进入第一翻译模式,当接收到第二触发指令时,第一设备切换到第二翻译模式。这样可以根据不同的需求和场景,灵活地选择合适的翻译模式,提高手语翻译的效率和准确性。
[0039] 示例性的,第一设备(如智能眼镜)可以设置物理按键、触摸感应区域或者特定的手势识别模块等,作为触发指令的输入方式。
[0040] 在会议室场景中,聋哑参会者佩戴智能眼镜作为第一设备。当需要进行简单快速的手语翻译时,参会者可以按下智能眼镜上的特定按键(第一触发指令),进入第一翻译模式。此时,智能眼镜提取参会者的手语手势特征,并发送给连接的笔记本电脑(第二设备)。笔记本电脑快速对收到的手势特征进行翻译,并通过语音形式输出翻译内容,方便其他参会者了解聋哑参会者的意见。
[0041] 如果在讨论复杂的问题时,需要更详细准确的翻译,参会者可以再次按下另一个按键(第二触发指令),切换到第二翻译模式。智能眼镜将完整的手势图像发送给笔记本电脑,笔记本电脑进行更深入地分析和翻译,确保翻译结果的准确性。
[0042] 在本实施例中,第二设备对手势图像进行翻译包括:基于手势图像确定各个手势的手势类别,手势类别包括单义手势或多义手势。
[0043] 提取手势图像中各个单义手势的手势特征,确定各个单义手势的第一权重。
[0044] 提取手势图像中各个多义手势的手势特征,确定各个多义手势的第二权重,第二权重基于多义手势的含义数量确定。
[0045] 基于各个单义手势的手势特征和各个单义手势的第一权重确定第一目标特征向量。
[0046] 基于各个多义手势的手势特征和各个多义手势的第二权重确定第二目标特征向量。
[0047] 将第一目标特征向量和第二目标特征向量进行融合,得到目标手势特征向量。
[0048] 相应地,将手势特征和第一翻译指令发送给第二设备,包括:将目标手势特征向量和第一翻译指令发送给第二设备,第一翻译指令具体用于指示第二设备对目标手势特征向量进行翻译。
[0049] 在本实施例中,第二权重基于多义手势的含义数量确定,包括:基于多义手势的含义数量,通过第一公式计算多义手势的第二权重,或者基于多义手势的含义数量,通过第二公式计算多义手势的第二权重。
[0050] 第一公式为:
[0051] 其中, 表示第j个多义手势的第二权重,表示多义手势的含义数量,、b、A、B均为固定常数。
[0052] 第二公式为:
[0053] 其中,表示含义数量x与第二权重 间的映射系数。
[0054] 示例性的,当含义数量大于或者等于第一数量(a),且小于第二数量(b)时,确定多义手势的第二权重为A。当含义数量大于第二数量(b)时,确定多义手势的第二权重为B。
[0055] 或者,设置含义数量与第二权重间的映射系数。确定映射系数时,考虑权重随着含义数量的增加而呈现的变化趋势。含义数量越多,多义手势的不确定性就越大,其权重需要相应地降低以反映这种不确定性。具体地,根据实际情况进行非线性调整。例如,可以先确定几个关键的含义数量节点,比如含义数量为5、10、15等,根据经验或实验结果为这些节点设置相应的权重值。接着,通过插值或曲线拟合的方法确定其他含义数量对应的映射系数。例如,当含义数量为5时,设置权重为0.8。含义数量为10时,权重为0.6。含义数量为15时,权重为0.4。然后通过线性插值或二次曲线拟合等方法,确定其他含义数量对应的权重值,从而得到映射系数。
[0056] 在本实施例中,基于各个单义手势的手势特征和各个单义手势的第一权重确定第一目标特征向量,包括:基于各个单义手势的手势特征和各个单义手势的第一权重,通过第三公式确定第一目标特征向量。
[0057] 第三公式为:T=
[0058] 其中,n表示单义手势的总数, 表示第k个单义手势的手势特征,T表示第一目标特征向量, 表示第k个单义手势的第一权重。在本实施例中,基于各个多义手势的手势特征和各个多义手势的第二权重确定第二目标特征向量,包括:基于各个多义手势的手势特征和各个多义手势的第二权重,通过第四公式确定第二目标特征向量。
[0059] 第四公式为:S=
[0060] 其中, ,S表示第二目标特征向量, 表示第j个多义手势的第二权重, 表示第j个多义手势的手势特征。
[0061] 在本实施例中,将第一目标特征向量和第二目标特征向量进行融合,得到目标手势特征向量,包括:基于手势图像确定手势序列,手势序列包括多个单义手势和多个多义手势的排列顺序。
[0062] 基于手势序列和第五公式,将第一目标特征向量和第二目标特征向量进行融合,得到目标手势特征向量。
[0063] 第五公式为:
[0064] 其中,=k+j,手势序列为Seq={ ,..., }, 表示手势序列中第i个手势,表示目标手势特征向量, 表示当手势 为单义手势时,该单义手势在第一目标特征向量中的索引函数, 表示当手势 为多义手势时,该多义手势在第二目标特征向量中的索引函数,表示手势序列中第i个手势的权重。
[0065] 在本实施例中,第一翻译指令具体用于指示第二设备对目标手势特征向量进行翻译,包括:第二设备基于环境信息对目标手势特征向量进行翻译。
[0066] 示例性的,单义手势的第一权重决定了其在第一目标特征向量中的贡献程度。合理设置第一权重,能够准确反映单义手势在表达中的重要性。例如,对于一些关键的、常用的单义手势,可以给予较高的权重,使其在翻译中起到主导作用,从而提高翻译结果的准确性。
[0067] 多义手势的第二权重基于含义数量确定,这使得权重能够反映多义手势的不确定性。当含义数量较多时,降低其权重可以减少多义手势在翻译中的不确定性影响,避免因多种含义的干扰而导致翻译错误。同时,根据含义数量合理设置权重,能够引导第二设备在翻译时更准确地结合上下文和环境信息来确定多义手势的具体含义,从而提高翻译的准确性。
[0068] 在将第一目标特征向量和第二目标特征向量进行融合时,权重决定了每个手势特征在融合过程中的作用大小。如果权重设置不合理,可能会导致某些重要的手势特征被忽视,或者一些不太重要的手势特征过度影响翻译结果,从而降低翻译的准确性。
[0069] 权重的设置还会影响第二设备在结合环境信息对目标手势特征向量进行翻译的过程。合理的权重能够使第二设备更好地根据环境信息来调整对不同手势特征的翻译,确保翻译结果更符合实际情境,提高翻译的准确性。
[0070] 示例性的,目标手势特征向量包含了各个手势特征与手势权重,权重较低的手势意味着其含义相对较不明确或存在较多的歧义。因此,为了更准确地翻译这些手势,需要结合更多的上下文和环境信息来辅助理解。
[0071] 上下文信息可以包括之前和之后出现的手势、句子的整体语境以及交流的主题等。通过考虑这些上下文因素,可以更好地推断出权重较低的手势在当前情境中的具体含义。
[0072] 环境信息可以提供关于交流场景的背景知识,例如交流发生的地点、参与者、周围的物体等。这些环境信息可以帮助进一步确定手势的含义,特别是对于那些多义手势或在不同环境中可能有不同解释的手势。
[0073] 例如,如果一个权重较低的多义手势出现,但根据之前的交流内容和当前的环境,可以推断出它最有可能的含义是与某个特定主题相关的,那么结合这些上下文和环境信息进行翻译就能够更准确地传达其意图。
[0074] 在本实施例中,当第一设备处于第二翻译模式时,第一设备(如智能眼镜)通过其摄像头采集到包含手语动作的手势图像。随后,第一设备将完整的手势图像与第二翻译指令一同发送给与之连接的第二设备。第二翻译指令作为一种信号,告知第二设备采用指定方式对手势图像进行翻译。第二设备接收到图像和指令后,利用自身的计算资源和翻译算法,对手势图像进行分析处理。它会识别图像中的手语动作、手部姿态、身体姿势等信息,通过与预先存储的手语数据库进行比对和分析,将手语动作转化为对应的文字或语音信息,从而实现手语翻译的功能。
[0075] 示例性的,在商场购物场景中,聋哑顾客佩戴智能眼镜。当顾客想要询问商品信息时,通过操作将智能眼镜切换到第二翻译模式。智能眼镜将采集到的顾客手语动作的手势图像和第二翻译指令发送给自己的智能手机(第二设备)。第二设备对手势进行翻译并语音输出,服务台工作人员可以准确了解顾客的需求并给予回应,从而为聋哑顾客提供更好的购物体验。
[0076] 在本实施例中,手语翻译方法还包括:获取手势图像数据集,对手势图像数据集进行标注。
[0077] 基于标注后的手势图像数据集对目标检测算法进行训练,得到第一手语识别模型和第一手语翻译模型。
[0078] 示例性的,收集不同手势动作的手语图像,可以包括不同角度、光照条件和不同背景的手语图像,得到手语图像数据集。对手语图像数据集进行标注,标注每个图像中的手势动作,以便训练模型。采用基于深度学习的目标检测算法,如YOLO、Faster R‑CNN等,对手语图像数据集进行识别和训练,包括对手语图像进行特征提取,得到第一手语识别模型。
[0079] 第一手语翻译模型的训练过程包括:利用第一手语识别模型和权重参数,对实时摄像头获取的手势图像进行特征提取,基于手势特征,利用卷积神经网络等深度学习分类算法对相应手势图像进行分类。根据手势动作的判断结果,进行相应的标签操作,将已标签的手势动作传输至大语言模型,生成翻译文本。通过语音输出模块,将翻译文本转化为语音输出,使普通人能够听到聋哑人表达的意思。
[0080] 由上可以得出,本实施例满足了用户在不同场景下的不同翻译需求,显著提升了手语交流的便捷性和效率,实现了资源的合理分配。
[0081] 具体地,通过设置不同的翻译模式,增强了手语翻译的灵活性和适应性。在第一翻译模式下,第一设备先提取手势特征再发送给第二设备翻译,减少了传输的数据量,降低了对传输带宽的要求,同时也为第二设备的翻译工作提供了更精炼的信息,有助于提高翻译效率。在第二翻译模式下,直接发送手势图像,为第二设备提供了更原始的数据,可在特定情况下满足更复杂的翻译需求。
[0082] 本公开实施例充分考虑了智能眼镜等第一设备的计算资源和存储容量有限的问题。既避免了在第一设备上进行复杂的翻译算法导致性能瓶颈,又能借助第二设备的强大计算能力进行高效翻译。
[0083] 相比现有的将图像传输到其他设备进行翻译的方式,本方案的不同翻译模式可根据不同场景进行选择,减少了翻译的时间延迟。尤其是在实时翻译需求较高的情况下,能够更好地满足用户需求。同时,通过指令指示第二设备进行翻译,实现了更高效的任务分配和协同工作,避免了顺序处理的低效率问题,提高了整个手语翻译过程的效率,为聋哑人群体在日常生活和工作中提供了更便捷、高效的交流辅助工具。
[0084] 在本公开的一种实施例中,手语翻译方法还包括:响应于第一设备处于第三翻译模式,基于手势图像确定各个手势的手势类别,手势类别包括单义手势或多义手势。
[0085] 响应于手势类别为单义手势,提取手势图像的手势特征,将手势特征和第三翻译指令发送给第二设备。第三翻译指令用于指示第二设备对手势特征进行翻译。
[0086] 响应于手势类别为多义手势,将手势图像和第四翻译指令发送给第二设备。第四翻译指令用于指示第二设备对手势图像进行翻译。
[0087] 在本实施例中,第三翻译指令包括第三环境标识,响应于第一设备处于第三翻译模式且手势类别为单义手势,还包括:基于环境信息确定环境特征,将环境特征和第三环境标识发送给第二设备。
[0088] 其中,环境信息包括第一用户周围的环境信息,第一用户为使用第一设备的用户,第三环境标识用于指示第二设备基于环境特征对手势特征进行翻译。
[0089] 在本实施例中,第四翻译指令包括第四环境标识,响应于第一设备处于第三翻译模式且手势类别为多义手势,还包括:将环境信息和第四环境标识发送给第二设备。
[0090] 其中,第四环境标识用于指示第二设备基于环境信息对手势特征进行翻译。
[0091] 在本实施例中,手语翻译方法还包括:响应于识别到第二用户,且第二用户与第一用户的距离小于第一距离,且持续时长满足第一时长,控制第一设备处于第三翻译模式。
[0092] 在本实施例中,手语翻译方法还包括:响应于收到第三触发指令,控制第一设备处于第三翻译模式。
[0093] 示例性的,在旅游景区,聋哑游客佩戴智能眼镜。当游客遇到复杂的手语交流场景时,通过特定的手势动作触发第三触发指令。智能眼镜进入第三翻译模式,对采集到的手语手势进行识别和分类。例如识别到的手势序列包括10个手势动作,首先将每个手势动作,这样的单义手势,就提取手势特征发送给导游的手机(第二设备)进行快速翻译。如果是一个有多种含义的多义手势,智能眼镜就将手势图像发送给导游的手机,由手机进行更全面的分析和翻译,帮助导游更好地理解游客的需求,为聋哑游客提供更好的服务。
[0094] 在本实施例中,将手势特征发送给第二设备,包括:通过第一传输信道将手势特征发送给第二设备。将手势图像发送给第二设备,包括通过第二传输信道将手势图像发送给第二设备。
[0095] 示例性的,中国手语包括手势语和手指语两部分,手势语以模拟事物外形及其动态为主,手指语则以书面文字为基础,按照汉语拼音规则形成。单义手势是指那些具有明确、唯一含义的手语动作,其中手指语是最典型的单义手势,另外还有一些单义手势,例如用特定的手指动作表示数字“1”,或者用一个固定的手势表示“好”等,这类手势的含义比较单一,不容易产生歧义。多义手势则是一些拥有多种不同含义的手语动作,其具体含义需要结合上下文、面部表情、身体姿态等因素来确定。例如,某个特定的手部动作可能在不同的情境下表示“喜欢”“想要”“期待”等不同的意思。
[0096] 在本实施例中,当第一设备处于第三翻译模式时,首先根据手势图像确定各个手势的手势类别。如果判断为单义手势,就提取手势图像的手势特征,这些特征可能包括手部的形状、位置、运动轨迹等能够唯一确定该单义手势含义的关键信息。然后将手势特征发送给第二设备,并附上第三翻译指令,指示第二设备对该手势特征进行翻译。如果判断为多义手势,由于其含义不明确,直接将完整的手势图像发送给第二设备,同时附上第三翻译指令,让第二设备结合更多的信息来确定其具体含义并进行翻译。
[0097] 对于手语翻译方法设置不同的模式及相应处理逻辑,主要是考虑到手语的复杂性和多样性。单义手势含义明确,提取其关键特征进行翻译效率更高且准确,因为这些特征能唯一确定其含义。而多义手势需要更多的上下文信息来确定具体含义,所以直接发送完整手势图像让第二设备进行更全面的分析。同时,引入环境信息和环境标识,是因为手语的含义在不同环境下可能会有变化,环境特征可以辅助第二设备更准确地翻译手势。此外,设置多种触发方式进入第三翻译模式,是为了方便用户在不同场景下灵活启动该模式,满足复杂交流场景的需求。
[0098] 本实施例一方面提高了手语翻译的准确性。单义手势和多义手势的分类处理,以及结合环境信息进行翻译,使得翻译结果更贴合实际情境,减少歧义。另一方面,增强了用户体验。聋哑游客在旅游景区等复杂场景下,能够通过多种方式启动第三翻译模式,及时与他人进行有效的沟通。对于导游等接收翻译的一方,也能更好地理解聋哑游客的需求,提供更好的服务。同时,不同的传输信道分别传输手势特征和手势图像,提高了数据传输的效率和稳定性,确保翻译过程的流畅进行。
[0099] 在本公开的一种实施例中,第一翻译指令包括第一环境标识。
[0100] 响应于第一设备处于第一翻译模式,还包括:基于环境信息确定环境特征,将环境特征和第一环境标识发送给第二设备。
[0101] 其中,环境信息包括第一用户周围的环境信息,第一用户为使用第一设备的用户,第一环境标识用于指示第二设备基于环境特征对手势特征进行翻译。
[0102] 在本实施例中,环境信息包括环境图像、环境音频和空间距离。当第一设备处于第一翻译模式时,除了提取手势特征并发送给第二设备外,还会根据第一用户周围的环境信息确定环境特征。然后将环境特征和带有第一环境标识的第一翻译指令一同发送给第二设备。第二设备在接收到这些信息后,会依据环境特征对手势特征进行更准确的翻译。因为不同的环境可能会影响手语的具体含义,通过加入环境特征可以提高翻译的准确性和适应性。
[0103] 示例性的,第一设备可以配备环境传感器,如光线传感器、声音传感器、深度传感器等,用于收集周围环境信息。
[0104] 第二翻译指令包括第二环境标识。
[0105] 响应于第一设备处于第二翻译模式,还包括:将环境信息和第二环境标识发送给第二设备。
[0106] 其中,第二环境标识用于指示第二设备基于环境信息对手势特征进行翻译。
[0107] 在本实施例中,当第一设备处于第二翻译模式时,会将包括环境图像、环境音频和空间距离等环境信息以及带有第二环境标识的第二翻译指令发送给第二设备。第二设备接收到这些信息后,依据环境信息对手势图像进行翻译。环境图像可以提供周围场景的视觉信息,环境音频可能包含周围的声音线索,空间距离能帮助判断手语表达者与周围物体或人的相对位置关系。这些环境因素有助于更准确地理解手语的具体含义,使翻译更加贴合实际情境。
[0108] 示例性的,第一设备(如智能眼镜)需配备摄像头以获取环境图像,麦克风收集环境音频,以及距离传感器来测量空间距离。
[0109] 在火车站,聋哑旅客佩戴第一设备(智能眼镜)。当旅客用手语询问工作人员时,智能眼镜处于第二翻译模式。此时,智能眼镜收集周围的环境信息,如火车站的嘈杂音频、人群和设施的环境图像以及与工作人员的空间距离等,并将这些信息和第二环境标识发送给第二设备(如平板电脑)。第二设备根据这些环境信息,更准确地将旅客的手语翻译为“请问我的车次在哪个站台上车”,结合火车站的特定环境,使翻译结果更符合实际需求,方便工作人员为旅客提供准确的帮助。
[0110] 本实施例通过引入环境信息和环境标识,显著提升了手势翻译的准确性和适应性。在第一翻译模式下,结合环境特征进行翻译,确保翻译结果更符合实际情境。在第二翻译模式下,利用环境图像、音频和距离等多维度信息,进一步提高了翻译的准确性。这一改进尤其适用于复杂多变的实际环境,使得聋哑人士与他人的交流更加顺畅,提升了沟通效率和用户体验。
[0111] 对应于上文实施例的手语翻译方法,图2为本公开一实施例提供的手语翻译系统的结构框图。为了便于说明,仅示出了与本公开实施例相关的部分。参考图2,该手语翻译系统20包括:第一翻译模块,用于响应于第一设备处于第一翻译模式,基于手势图像提取手势特征,将手势特征和第一翻译指令发送给第二设备。第二设备为与第一设备连接的设备。第一翻译指令用于指示第二设备对手势特征进行翻译。
[0112] 第二翻译模块,用于响应于第一设备处于第二翻译模式,将手势图像和第二翻译指令发送给第二设备。第二翻译指令用于指示第二设备对手势图像进行翻译。
[0113] 在本公开的一种实施例中,手语翻译系统20还包括:第三翻译模块,用于响应于第一设备处于第三翻译模式,基于手势图像确定各个手势的手势类别,手势类别包括单义手势或多义手势。
[0114] 响应于手势类别为单义手势,提取手势图像的手势特征。将手势特征和第三翻译指令发送给第二设备。第三翻译指令用于指示第二设备对手势特征进行翻译。
[0115] 响应于手势类别为多义手势,将手势图像和第四翻译指令发送给第二设备。第四翻译指令用于指示第二设备对手势图像进行翻译。
[0116] 在本公开的一种实施例中,第一翻译指令包括第一环境标识,第一翻译模块,还用于基于环境信息确定环境特征,将环境特征和第一环境标识发送给第二设备。
[0117] 其中,环境信息包括第一用户周围的环境信息,第一用户为使用第一设备的用户,第一环境标识用于指示第二设备基于环境特征对手势特征进行翻译。
[0118] 在本公开的一种实施例中,第二翻译指令包括第二环境标识,第二翻译模块,还用于将环境信息和第二环境标识发送给第二设备。
[0119] 其中,环境信息包括第一用户周围的环境信息,第一用户为使用第一设备的用户,第二环境标识用于指示第二设备基于环境信息对手势特征进行翻译。
[0120] 在本公开的一种实施例中,环境信息包括环境图像、环境音频和空间距离。
[0121] 在本公开的一种实施例中,手语翻译系统20还包括:第一触发模块,用于响应于收到第一触发指令,控制第一设备处于第一翻译模式。
[0122] 响应于收到第二触发指令,控制第一设备处于第二翻译模式。
[0123] 在本公开的一种实施例中,手语翻译系统20还包括:第二触发模块,用于响应于收到第三触发指令,控制第一设备处于第三翻译模式。
[0124] 参见图3,图3为本公开一实施例提供的电子设备的示意框图。如图3所示的本实施例中的电子设备300可以包括:一个或多个处理器301、一个或多个输入设备302、一个或多个输出设备303及一个或多个存储器304。上述处理器301、输入设备302、输出设备303及存储器304通过通信总线305完成相互间的通信。存储器304用于存储计算机程序,计算机程序包括程序指令。处理器301用于执行存储器304存储的程序指令。其中,处理器301被配置用于调用程序指令执行上述各系统实施例中各模块的功能,例如图2所示模块21至22的功能。
[0125] 应当理解,在本公开实施例中,所称处理器301可以是中央处理单元 (Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路 (Application Specific Integrated Circuit,ASIC)、现成可编程门阵列 (Field‑Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0126] 输入设备302可以包括触控板、指纹采集传感器(用于采集用户的指纹信息和指纹的方向信息)、麦克风等,输出设备303可以包括显示器(LCD等)、扬声器等。
[0127] 该存储器304可以包括只读存储器和随机存取存储器,并向处理器301提供指令和数据。存储器304的一部分还可以包括非易失性随机存取存储器。例如,存储器304还可以存储设备类型的信息。
[0128] 具体实现中,本公开实施例中所描述的处理器301、输入设备302、输出设备303可执行本公开实施例提供的手语翻译方法的第一实施例和第二实施例中所描述的实现方式,也可执行本公开实施例所描述的电子设备300的实现方式,在此不再赘述。
[0129] 在本公开的另一实施例中提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序包括程序指令,程序指令被处理器执行时实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read‑Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
[0130] 计算机可读存储介质可以是前述任一实施例的电子设备的内部存储单元,例如电子设备的硬盘或内存。计算机可读存储介质也可以是电子设备的外部存储设备,例如电子设备上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。进一步地,计算机可读存储介质还可以既包括电子设备的内部存储单元也包括外部存储设备。计算机可读存储介质用于存储计算机程序及电子设备所需的其他程序和数据。计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
[0131] 本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
[0132] 所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的电子设备和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0133] 在本申请所提供的几个实施例中,应该理解到,所揭露的电子设备和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
[0134] 作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本公开实施例方案的目的。
[0135] 另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0136] 以上,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。