首页 / 信息交互方法及信息交互装置

信息交互方法及信息交互装置有效专利 发明

技术领域

[0001] 本申请涉及信息交互技术领域,尤其涉及一种信息交互方法及信息交互装置。

相关背景技术

[0002] 在会议等商务会面场合,人们初次见面时通常会在交谈过程中判断是否需要交换名片,并在需要交换时,停止当前的其它正常交流,找出自己的纸质名片或者电子名片(电子名片例如包括用户所属的机构名称、用户姓名和手机号等信息)给对方,并且接收对方的名片或录入对方的通讯信息。

具体实施方式

[0023] 下面结合附图(若干附图中相同的标号表示相同的元素)和实施例,对本申请的具体实施方式作进一步详细说明。以下实施例用于说明本申请,但不用来限制本申请的范围。
[0024] 本领域技术人员可以理解,本申请中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
[0025] 如图1所示,本申请实施例提供了一种信息交互方法,包括:
[0026] S110获取一用户与一其它用户之间的视线交流信息;
[0027] S120确认所述视线交流信息是否满足设定的交互条件;
[0028] S130与满足所述交互条件对应的,与所述其它用户对应的外部设备之间进行所述用户和/或所述其它用户的信息交互。
[0029] 举例来说,本申请提供的信息交互装置作为本实施例的执行主体,执行S110~S130。具体地,所述信息交互装置可以以软件、硬件或软硬件结合的方式设置在一用户设备中,或者,所述信息交互装置本身就是所述用户设备;所述用户设备包括但不限于:智能手机、智能眼镜、智能头盔等,其中智能眼镜又分为智能框架眼镜和智能隐形眼镜。在本申请实施例中,所述用户为所述信息交互装置的使用者;所述其它用户为所述外部设备的使用者。
[0030] 在本申请实施例中,所述信息交互主要包括所述用户和/或所述其它用户的个人信息的交互。
[0031] 本申请实施例根据用户之间的视线交流情况来自然的进行用户之间的个人信息交互,不需要打断用户之间的其它正常交流,并且只在有视线交流的用户之间进行个人信息的交互,保证个人信息交互的安全性。
[0032] 通过下面的实施例进一步说明本申请实施例的各步骤:
[0033] 如图2所示,在一种可能的实施方式中,所述方法在所述步骤S110之前还包括:
[0034] S100确认所述用户是否处于面对面交流状态;
[0035] 当确认所述用户处于所述面对面交流状态时,再转到所述步骤S110。
[0036] 如果用户未与其它用户交流时,所述步骤S110无法获取所述视线交流信息,因此要一直重复去获取所述视线交流信息,因此,在本实施方式中,所述方法不需要一直获取所述视线交流信息,而是在确认用户在与一其它用户交流时,才触发所述步骤S110。
[0037] 在一种可能的实施方式中,所述确认所述用户是否处于面对面交流状态包括:
[0038] 获取所述用户周围的声音信息;
[0039] 通过语音检测对所述声音信息进行分析,确认所述用户是否处于面对面交流状态。
[0040] 在本实施方式一种可能的实施方式中,可以通过一声音传感器件来获取所述用户周围的声音信息,所述声音传感器件可以是所述信息交互装置的一部分。在另一种可能的实施方式中,还可以通过通信的方式来从其他设备获取所述声音信息。
[0041] 在本实施方式中,当所述用户与其他用户面对面交流时,一般会有所述用户的语音和至少一其它用户的语音,通过语音检测算法确认所述声音信息中是否有所述用户的语音以及至少一其它用户的语音,则可以确认所述用户是否处于面对面交流状态。
[0042] 在本申请另一种可能的实施方式中,所述确认所述用户是否处于面对面交流状态包括:
[0043] 获取所述用户的头部运动姿态信息;
[0044] 通过头部运动姿态模式识别对所述头部运动姿态信息进行分析,确认所述用户是否处于面对面交流状态。
[0045] 在本申请实施例中,可以通过设置于所述用户头部的一运动姿态传感器件来获取所述用户的头部运动姿态信息;或者,也可以通过通信的方式,从其他设备获取所述头部运动姿态信息。
[0046] 在本申请实施例中,由于用户处于面对面交流状态时会有特定的头部运动特征和姿态特征,因此,通过头部运动姿态模式识别可以确认所述用户是否处于面对面交流状态。与通过语音检测的实施方式不同的是,在本实施方式中,即使用户之间没有语言的交流,也可以确认所述用户是否处于面对面交流状态。
[0047] 在另一种可能的实施方式中,可以同时通过上面所述声音信息和所述头部运动姿态信息来确认所述用户是否处于面对面交流状态,可以进一步提高确认的准确性。
[0048] 当然,本领域技术人员可以知道,其它用于检测用户是否处于所述交谈状态的方法也可以应用在本申请实施例中。
[0049] S110获取一用户与一其它用户之间的视线交流信息。
[0050] 在本申请实施例中,所述视线交流信息包括:视线接触时间。
[0051] 这里,所述视线接触时间为:所述用户注视所述其它用户的眼睛的同时,所述其它用户也在注视所述用户的眼睛的时间。
[0052] 在本申请实施例中,获取所述用户与所述其它用户的视线接触时间包括:
[0053] 获取所述用户注视所述其它用户的眼睛的第一时间信息;
[0054] 获取所述其它用户注视所述用户的眼睛的第二时间信息;
[0055] 根据所述第一时间信息和所述第二时间信息得到所述视线交流信息。
[0056] 如图3所示,根据所述第一时间信息和所述第二时间信息可以得到所述第一时间信息对应的时间段与所述第二时间信息对应的时间段重叠的时间段,该时间段即为所述用户与所述其它用户的所述视线接触时间。
[0057] 在本申请实施例中,所述获取所述用户注视所述其它用户的眼睛的第一时间信息包括:
[0058] 确认所述用户是否注视所述其它用户的眼睛;
[0059] 记录所述用户注视所述其它用户的眼睛的时间作为所述第一时间信息。
[0060] 在本申请实施例中,确认所述用户是否注视所述其它用户的眼睛主要是通过检测用户的注视点与所述其它用户的眼睛是否重合实现的。
[0061] 当然,由于检测有可能会有误差,因此在一种可能的实施方式中,所述确定所述用户是否注视所述其它用户的眼睛还可以是检测所述用户的注视点是否落在包含所述其它用户的眼睛的一预设区域。这里所述的预设区域例如可以为所述其它用户的眼眶范围内的区域,或者甚至可以为所述其它用户的面部区域。
[0062] 在一种可能的实施方式中,所述确认所述用户是否注视所述其它用户的眼睛包括:
[0063] 获取与所述用户的视野对应的图像;
[0064] 获取所述用户的视线方向;
[0065] 确认所述图像上与所述用户的视线方向对应的对象是否为所述其它用户的眼睛。
[0066] 在本申请实施例中,所述与所述用户的视野对应的图像指是包含所述用户的观看区域(这里,所述观看区域可以为用户视野的子集,也可以与用户视野重合)的对象的图像。例如,可以通过一近眼设备的图像采集模块沿着用户眼睛朝向的方向拍摄获取所述图像。可以通过校准来确认所述图像与所述用户观看区域之间的关系(如图像与所述观看区域完全重合、部分重合等)。
[0067] 在本申请实施例中,可以通过视线跟踪方法来获取所述用户的视线方向。
[0068] 在本申请实施例中,所述确认所述图像上与所述用户的视线方向对应的对象是否为所述其它用户的眼睛可以包括:
[0069] 校准所述用户的视线方向与采集所述图像的图像采集模块所采集图像之间的对应关系;
[0070] 对所述图像进行分析,例如,通过人脸检测算法对所述图像进行分析,识别所述图像中的人脸的眼睛区域;
[0071] 根据所述对应关系确认所述用户的视线方向是否与所述眼睛区域对应,进而可以确认所述用户的视线方向是否为所述其它用户的眼睛。
[0072] 由于用户的视线方向与一对象重合也不能绝对确认用户正在注视该对象,例如,用户正在思考眼睛没有聚焦、或者用户正在看一个透明物体(例如看透过式显示器上的内容),因此,为了提高注视确认的准确性,在一种可选的实施方式中,所述确认所述用户是否注视所述其它用户的眼睛还包括:
[0073] 获取所述用户的注视点相对于所述用户的第一距离;
[0074] 获取所述其它用户相对于所述用户的第二距离;
[0075] 确认所述第一距离与所述第二距离是否匹配。
[0076] 在本申请实施例中,在所述第一距离和所述第二距离匹配时,又由于所述用户的视线方向与所述其它用户的眼睛在所述图像上的区域对应,则可以更准确的确认所述用户注视所述其它用户的眼睛。
[0077] 在本申请实施例中,获取所述第一距离的方式可以有多种,例如为以下的一种:
[0078] 1)通过分别检测所述用户两只眼睛的视线方向,得到两只眼睛的视线方向的交点相对于所述用户的位置,进而获取所述第一距离;
[0079] 2)通过检测所述用户的一眼睛的视线方向,以及所述用户视线方向的深度图,根据所述视线方向与所述深度图上对象的对应关系,进而获取所述第一距离;
[0080] 3)采集眼底的眼底图像,根据采集到清晰的眼底图像时的眼底图像采集模块的成像参数等,得到所述第一距离。
[0081] 在一种可能的实施方式中,可以通过深度检测来获取所述其它用户相对于所述用户的第二距离。例如,通过设置在所述用户侧的一深度传感器来获取所述第二距离。
[0082] 由于可以在交谈时,用户一般会以某一特定方向注视对方,因此可以通过预先设定、或机器学习等方式确认用户在交谈时视线方向所对应的所述图像上的预定区域,此时,在一种可选的实施方式中,简化地,所述确认所述用户是否注视所述其它用户的眼睛的方式可以包括:
[0083] 获取与所述用户的视野对应的图像;
[0084] 确认所述图像中所述其它用户的眼睛是否在预定区域。
[0085] 由于在用户读取一其它用户的个人信息时,如果有该其它用户对应的面部照片,则可以更方便的帮助用户将所述个人信息与所述其它用户对应起来。此外,根据上面实施方式中所述,当用户注视所述其它用户的眼睛时,在进行所述步骤S110时,获取的所述与所述用户的视野对应的图像中会包含所述其它用户(例如包含所述用户的面部)。因此,在一种可选的实施方式中,所述方法还包括:
[0086] 与所述用户注视所述其它用户的眼睛对应的,保存所述图像中包含所述其它用户的用户图像。
[0087] 在本申请实施例中,所述获取所述其它用户注视所述用户的眼睛的第二时间信息包括:
[0088] 从外部获取所述第二时间信息。
[0089] 这里的外部例如可以为所述其它用户对应的外部设备,例如所述其它用户也通过上面所述视线跟踪等技术获取所述第二时间信息,并通过所述外部设备发送给本申请方法的执行主体。此外,所述外部还可以是一外部服务器,所述外部设备可以将获取的所述第二时间信息发送到所述外部服务器,本申请方法的执行主体再通过通信的方式从所述外部服务器获取所述第二时间信息。
[0090] 在一种可能的实施方式中,所述用户和所述其它用户的面部特征与其分别对应的设备之间有对应关系,即,可以通过识别出的面部特征映射到一对应的用户设备。在该实施方式中,所述方法确定所述用户注视所述其它用户的眼睛后,可以对获取的包含所述其它用户的眼睛的图像进行面部特征识别,并通过识别出的所述其它用户的面部特征映射到对应所述其它用户的外部设备,并与所述外部设备建立通信以获取所述第二时间信息,并且还可以将所述第一时间信息发送给所述外部设备。
[0091] 此外,在另一种可能的实施方式中,还可以是所述用户和所述其它用户的语音特征与其对应分别对应的设备之间有对应关系,即,可以通过识别出的语音特征映射到一对应的用户设备。所述方法还可以根据采集到的其它用户的语音特征与所述其它用户对应的外部设备建立连接,获取所述第二时间信息。
[0092] 其中,本申请方法的执行主体与所述外部设备之间的通信可以通过多种方式完成,例如无线通信(如蓝牙、WiFi),可视化通信(如分别呈现对应的二维码),声波通信(如通过超声波)等方式。
[0093] S120确认所述视线交流信息是否满足设定的交互条件。
[0094] 如上面所述的,在一种实施方式中,当所述视线交流信息为所述视线接触时间时,所述交互条件例如可以包括:
[0095] 所述用户与所述其它用户之间的视线接触时间达到设定的阈值。
[0096] 如图3所示,在一种可能的实施方式中,所述视线接触时间可以是所述用户与所述其它用户之间的累积视线接触时间,其中,当所述用户与所述其它用户之间有多次视线接触时,所述累积视线接触时间为这多次视线接触时间的和,如图3所示的t1+t2+t3;在另一种可能的实施方式中,所述视线接触时间也可以是所述用户与所述其它用户之间的单次视线接触时间,如图3所示的t1、t2或t3;或者所述视线接触时间也可以为所述用户与所述其它用户之间的多次视线接触时间中的最大值,如图3所示的t3。
[0097] S130与满足所述交互条件对应的,与所述其它用户对应的外部设备之间进行所述用户和/或所述其它用户的信息交互。
[0098] 在本申请实施例一种可能的实施方式中,所述与所述其它用户对应的外部设备之间进行所述用户和/或所述其它用户的信息交互包括:
[0099] 向所述外部设备发送所述用户的第一个人信息;
[0100] 从所述外部设备接收所述其它用户的第二个人信息。
[0101] 在另一种可能的实施方式中,也可以只向所述外部设备发送所述用户的第一个人信息,或者,只从所述外部设备接收所述其它用户的第二个人信息。
[0102] 在本申请实施例中,所述第一个人信息可以包括以下的至少一种:所述用户的属性信息(例如所述用户的姓名、所属单位名称、职务等)、所述用户的通讯信息(如所述用户的电话号码、邮件地址、即时通讯账号等)。当然,还可以包括其它所述用户想要呈现给其它用户的信息(例如所述用户的照片等)。
[0103] 所述第二个人信息包含所述其它用户的想要呈现给所述用户的信息。例如,所述其它用户的属性信息和/或所述其它用户的通讯信息。
[0104] 在一种可能的实施方式中,所述方法还包括:
[0105] 与满足所述交互条件对应的,获取包含所述其它用户的用户图像;
[0106] 将所述用户图像与所述第二个人信息相关联。
[0107] 如上面所述,将所述其它用户的所述用户图像与所述第二个人信息关联后,可以帮助用户更好的确认所述其它用户。
[0108] 其中,所述用户图像可以是从上面所述存储的用户图像中获取;或者,还可以是通过通信的方式从外部获取。
[0109] 本领域技术人员可以理解,在本申请具体实施方式的上述方法中,各步骤的序号大小并不意味着执行顺序的先后,各步骤的执行顺序应以其功能和内在逻辑确认,而不应对本申请具体实施方式的实施过程构成任何限定。
[0110] 如图4所示,本申请实施例提供了一种信息交互装置400,包括:
[0111] 获取模块410,用于获取一用户与一其它用户之间的视线交流信息;
[0112] 确认模块420,用于确认所述视线交流信息是否满足设定的交互条件;
[0113] 交互模块430,用于与满足所述交互条件对应的,与所述其它用户对应的外部设备之间进行所述用户和/或所述其它用户的信息交互。
[0114] 本申请实施例根据用户之间的视线交流情况来自然的进行用户之间的个人信息交互,不需要打断用户之间的其它正常交流,并且只在有视线交流的用户之间进行个人信息的交互,保证个人信息交互的安全性。
[0115] 通过下面的实施例进一步说明本申请实施例各模块的功能。
[0116] 如图5a所示,在一种可能的实施方式中,所述装置400还包括:
[0117] 交流确认模块440,用于确认所述用户是否处于面对面交流状态;
[0118] 所述获取模块410进一步用于:
[0119] 与所述用户处于所述面对面交流状态对应的,获取所述视线交流信息。
[0120] 在本实施方式中,为了避免用户未与其它用户交流时,所述获取模块410一直不断尝试获取所述视线交流信息(但实际上无法获取到所述视线交流信息),在本实施方式中,通过所述交流确认模块440确认用户在与一其它用户交流后,才触发所述获取模块410的工作。
[0121] 因为处于与其他用户面对面交流时的用户会有一些特定的动作特征,因此,所述交流确认模块440可以通过多种方式来确认所述用户是否处于所述交流状态,因此所述交流确认模块440的结构例如可以为以下的一种或多种:
[0122] 1)所述交流确认模块440可以包括:
[0123] 声音获取子模块441,用于获取所述用户周围的声音信息;
[0124] 语音分析子模块442,用于通过语音检测对所述声音信息进行分析,确认所述用户是否处于面对面交流状态。
[0125] 在本实施方式中,当所述用户与其他用户面对面交流时,一般会有所述用户语音和至少一其它用户的语音,通过语音检测算法确认所述声音信息中是否有所述用户的语音声音,则可以确认所述用户是否处于面对面交流状态。
[0126] 本申请实施例中,所述声音获取子模块441可以为一声音传感器件;或者,所述声音获取子模块441还可以为一通信器件,用于从其他设备(例如用户携带的其它便携设备)获取所述声音信息。
[0127] 2)所述交流确认模块440可以包括:
[0128] 头部信息获取子模块443,用于获取所述用户的头部运动姿态信息;
[0129] 头部模式分析子模块444,用于通过头部运动姿态模式识别对所述头部运动姿态信息进行分析,确认所述用户是否处于面对面交流状态。
[0130] 在本申请实施例中,由于用户处于面对面交流状态时会有特定的头部运动特征和姿态特征,因此,通过头部运动姿态模式识别可以确认所述用户是否处于面对面交流状态。与上面通过语音检测的实施方式不同的是,在本实施方式中,即使用户之间没有语言的交流,也可以确认所述用户是否处于面对面交流状态。
[0131] 在本申请实施例中,头部信息获取子模块443可以包括设置于所述用户头部的一运动姿态传感器件(例如:加速度传感器和陀螺仪),用来获取所述用户的头部运动姿态信息;或者,头部信息获取子模块443可以通过通信的方式,从其他设备获取所述头部运动姿态信息。
[0132] 如图5a所示,在本实施方式中,所述交流确认模块440包括上面所述的声音获取子模块441、语音分析子模块442、头部信息获取子模块443以及头部模式分析子模块444,可以同时通过上面所述声音信息和所述头部运动姿态信息来确认所述用户是否处于面对面交流状态,可以进一步提高确认的准确性。
[0133] 当然,本领域技术人员可以知道,其它用于检测用户是否处于所述交谈状态的结构也可以应用在本申请实施例中。
[0134] 在本申请实施例中,所述视线交流信息包括:视线接触时间。这里,所述视线接触时间为:所述用户注视所述其它用户的眼睛的同时,所述其它用户也在注视所述用户的眼睛的时间。
[0135] 在本申请实施例中,所述获取模块410进一步用于获取所述用户与所述其它用户之间的视线接触时间。
[0136] 如图5a所示,在本申请实施例中,所述获取模块410包括:
[0137] 第一获取子模块411,用于获取所述用户注视所述其它用户的眼睛的第一时间信息;
[0138] 第二获取子模块412,用于获取所述其它用户注视所述用户的眼睛的第二时间信息;
[0139] 处理子模块413,用于根据所述第一时间信息和所述第二时间信息得到所述视线交流信息。
[0140] 如图5a所示,在一种可能的实施方式中,所述第一获取子模块411包括:
[0141] 注视确认单元4111,用于确认所述用户是否注视所述其它用户的眼睛;
[0142] 时间记录单元4112,用于记录所述用户注视所述其它用户的眼睛的时间作为所述第一时间信息。
[0143] 在本申请实施例中,确认所述用户是否注视所述其它用户的眼睛主要是通过检测用户的注视点与所述其它用户的眼睛是否重合实现的。
[0144] 在如图5b所示的实施例中,所述注视确认单元4111包括:
[0145] 图像获取子单元4111a,用于获取与所述用户的视野对应的图像;
[0146] 视线跟踪子单元4111b,用于获取所述用户的视线方向;
[0147] 视线确认子单元4111c,用于确认所述图像上与所述用户的视线方向对应的对象是否为所述其它用户的眼睛。
[0148] 在本申请实施例中,所述图像获取子单元4111a可以为一设置在近眼位置的图像采集器件(例如为一近眼可穿戴设备的摄像头),沿着用户眼睛朝向的方向拍摄所述图像。其中,可以通过一校准单元来确认所述图像与所述用户观看区域之间的关系(如图像与所述观看区域完全重合、部分重合等)。或者,在其它实施例中,所述图像获取子单元4111a还可以为一通信器件,用于从其他设备(例如其它近眼设备)获取所述图像。
[0149] 在本申请实施例中,所述视线确认子单元4111c的功能参见图2所示实施例中对应的描述,这里不再赘述。
[0150] 为了提高注视确认的准确性,可选地,在一种可能的实施方式中,所述注视确认单元4111还可以包括:
[0151] 第一距离获取子单元4111d,用于获取所述用户的注视点相对于所述用户的第一距离;
[0152] 第二距离获取子单元4111e,用于获取所述其它用户相对于所述用户的第二距离;
[0153] 距离确认子单元4111f,用于确认所述第一距离与所述第二距离是否匹配。
[0154] 在本申请实施例中,在所述第一距离和所述第二距离匹配时,又由于所述用户的视线方向与所述其它用户的眼睛在所述图像上的区域对应,则可以更准确的确认所述用户注视所述其它用户的眼睛。
[0155] 在本申请实施例中,获取所述第一距离获取子单元4111d的结构可以有多种,例如为以下的一种:
[0156] 1)所述第一距离获取子单元4111d包括两眼视线跟踪器件,用于分别检测所述用户两只眼睛的视线方向,所述第一距离获取子单元4111d再由所述两只眼睛的视线方向得到两只眼睛的视线方向的交点相对于所述用户的位置,进而获取所述第一距离;
[0157] 2)所述第一距离获取子单元4111d包括一视线跟踪器件,用于检测所述用户的一眼睛的视线方向,以及一深度传感器件,用于获取所述用户视线方向的深度图,所述第一距离获取子单元4111d根据所述视线方向与所述深度图上对象的对应关系,进而获取所述第一距离;
[0158] 3)所述第一距离获取子单元4111d包括一眼底图像采集器件,用于采集眼底的眼底图像,所述第一距离获取子单元4111d根据采集到清晰的眼底图像时的眼底图像采集模块的成像参数等,得到所述第一距离。
[0159] 在一种可能的实施方式中,所述第二距离获取子单元4111e可以包括一深度传感器,通过深度检测来获取所述其它用户相对于所述用户的第二距离。例如,通过设置在所述用户侧的一深度传感器来获取所述第二距离。
[0160] 由于可以在交谈时,用户一般会以某一特定方向注视对方,因此可以通过预先设定、或机器学习等方式确认用户在交谈时视线方向所对应的所述图像上的预定区域,此时,如图5c所示的实施例中,所述注视确认单元4111可以包括:
[0161] 图像获取子单元4111g,用于获取与所述用户的视野对应的图像;
[0162] 区域确认子单元4111h,用于确认所述图像中所述其它用户的眼睛是否在预定区域。
[0163] 如图5a所示,在本申请实施例中,所述第二获取子模块412包括:
[0164] 通信单元4121,用于从外部获取所述第二时间信息。
[0165] 这里的外部例如可以为所述其它用户对应的外部设备,例如所述其它用户也通过上面所述视线跟踪等技术获取所述第二时间信息,并通过所述外部设备发送给所述通信单元4121。此外,所述外部还可以是一外部服务器,所述外部设备可以将获取的所述第二时间信息发送到所述外部服务器,本申请实施例的通信单元4121从所述外部服务器获取所述第二时间信息。
[0166] 其中,所述通信单元4121与所述外部设备之间的通信可以通过多种方式完成,例如无线通信(如蓝牙、WiFi),可视化通信(如分别呈现对应的二维码),声波通信(如通过超声波)等方式。
[0167] 在一种可能的实施方式中,所述用户和所述其它用户的面部特征与其分别对应的设备之间有对应关系,即,可以通过识别出的面部特征映射到一对应的用户设备。在该实施方式中,所述注视确认单元4111确定所述用户注视所述其它用户的眼睛后,可以对获取的包含所述其它用户的眼睛的图像进行面部特征识别,并通过识别出的所述其它用户的面部特征映射到对应所述其它用户的外部设备,并通过所述通信单元4121与所述外部设备建立通信以获取所述第二时间信息,并且还可以通过所述通信单元4121将所述第一时间信息发送给所述外部设备。
[0168] 此外,在另一种可能的实施方式中,还可以是所述用户和所述其它用户的语音特征与其对应分别对应的设备之间有对应关系,即,可以通过识别出的语音特征映射到一对应的用户设备。所述通信单元4121还可以根据采集到的其它用户的语音特征与所述其它用户对应的外部设备建立连接,获取所述第二时间信息。
[0169] 在一种可能的实施方式中,所述处理子模块413可以根据所述第一时间信息和所述第二时间信息可以得到所述第一时间信息与所述第二时间信息重叠的时间段(如图3所示),该时间段即为所述用户与所述其它用户的所述视线接触时间。
[0170] 由于在用户读取一其它用户的个人信息时,如果有该其它用户对应的面部照片,则可以更方便的帮助用户将所述个人信息与所述其它用户对应起来。此外,根据上面实施方式中所述,当用户注视所述其它用户的眼睛时,获取的所述与所述用户的视野对应的图像中会包含所述其它用户(例如包含所述用户的面部)。因此,在一种可选的实施方式中,所述装置400还包括:
[0171] 存储模块450,用于与所述用户注视所述其它用户的眼睛对应的,保存所述图像中包含所述其它用户的用户图像。
[0172] 在一种可能的实施方式中,所述交互条件包括:
[0173] 所述用户与所述其它用户之间的视线接触时间达到设定的阈值。
[0174] 即:所述确认模块420用于确认所述用户与所述其它用户之间的视线接触时间是否达到设定的阈值。
[0175] 在一种可能的实施方式中,所述视线接触时间可以是所述用户与所述其它用户之间视线累积的接触时间;在另一种可能的实施方式中,所述视线接触时间也可以是所述用户与所述其它用户之间视线连续接触的单次视线接触时间。
[0176] 在一种可能的实施方式中,所述交互模块430包括:
[0177] 通信子模块431,用于:
[0178] 向所述外部设备发送所述用户的第一个人信息;或
[0179] 从所述外部设备接收所述其它用户的第二个人信息;或
[0180] 向所述外部设备发送所述用户的第一个人信息并且从所述外部设备接收所述其它用户的第二个人信息。
[0181] 在本申请实施例中,所述第一个人信息可以包括以下的至少一种:所述用户的属性信息(例如所述用户的姓名、所属单位名称、职务等)、所述用户的通讯信息(如所述用户的电话号码、邮件地址、即时通讯账号等)。当然,还可以包括其它所述用户想要呈现给其它用户的信息(例如所述用户的照片等)。
[0182] 所述第二个人信息包含所述其它用户的想要呈现给所述用户的信息。例如,所述其它用户的属性信息和/或所述其它用户的通讯信息。
[0183] 如图5a所示,在一种可能的实施方式中,所述装置400还包括:
[0184] 图像获取模块460,用于与满足所述交互条件对应的,获取包含所述其它用户的用户图像;
[0185] 关联模块470,用于将所述用户图像与所述第二个人信息相关联。
[0186] 如上面所述,将所述其它用户的所述用户图像与所述第二个人信息关联后,可以帮助用户更好的确认所述其它用户。
[0187] 其中,所述用户图像可以是从上面所述存储模块450保存的用户图像中获取;或者,还可以是通过一通信器件从外部获取。
[0188] 如图6所示,本申请实施例提供了一种近眼可穿戴设备600,包含图4、图5a-5c中的任一个所述的信息交互装置610。
[0189] 或者,在一种可能的实施方式中,所述近眼可穿戴设备本身就是所述信息交互装置。
[0190] 例如,在一种可能的实施方式中,所述近眼可穿戴设备为一智能眼镜700。
[0191] 所述智能眼镜700包含一摄像头710,用于实现上述图5b或图5c所示实施例中的图像获取子单元的功能,获取与所述用户的视野对应的图像。
[0192] 所述智能眼镜700还包含一视线跟踪器件720,用于获取所述用户的视线方向。
[0193] 在一种可能的实施方式中,所述摄像头710还包括一深度传感器711,用于获取所述其它用户距离所述用户的所述第二距离。
[0194] 所述智能眼镜700还包括一通信模块730,用于与所述其它用户对应的外部设备进行通信,获取所述第二时间信息、所述第二个人信息,以及将所述第一时间信息和所述第一个人信息向所述外部设备发送。
[0195] 所述智能眼镜700还包括一处理模块740,用于:
[0196] 根据所述摄像头710获取的所述图像以及所述第二距离,所述视线跟踪器件720获取的所述视线方向,确定所述第一时间信息;并且结合所述通信模块730获取的所述第二时间信息获取所述用户与一其它用户之间的视线交流信息,同时确认所述视线交流信息是否满足设定的交互条件;并在在满足所述交互条件时,通过所述通信模块730与所述外部设备之间进行所述用户和/或所述其它用户的信息交互。
[0197] 本申请实施例智能眼镜700各模块的功能实现可参见图5a-5c实施例中对应的描述,这里不再赘述。
[0198] 图8为本申请实施例提供的又一种信息交互装置800的结构示意图,本申请具体实施例并不对信息交互装置800的具体实现做限定。如图8所示,该信息交互装置800可以包括:
[0199] 处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830、以及通信总线840。其中:
[0200] 处理器810、通信接口820、以及存储器830通过通信总线840完成相互间的通信。
[0201] 通信接口820,用于与比如客户端等的网元通信。
[0202] 处理器810,用于执行程序832,具体可以执行上述方法实施例中的相关步骤。
[0203] 具体地,程序832可以包括程序代码,所述程序代码包括计算机操作指令。
[0204] 处理器810可能是一个中央处理器CPU,或者是特定集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。
[0205] 存储器830,用于存放程序832。存储器830可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。程序832具体可以用于使得所述信息交互装置800执行以下步骤:
[0206] 获取一用户与一其它用户之间的视线交流信息;
[0207] 确认所述视线交流信息是否满足设定的交互条件;
[0208] 与满足所述交互条件对应的,与所述其它用户对应的外部设备之间进行所述用户和/或所述其它用户的信息交互。
[0209] 程序832中各步骤的具体实现可以参见上述实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
[0210] 本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
[0211] 所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0212] 以上实施方式仅用于说明本申请,而并非对本申请的限制,有关技术领域的普通技术人员,在不脱离本申请的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本申请的范畴,本申请的专利保护范围应由权利要求限定。

当前第1页 第1页 第2页 第3页
相关技术
交互装置相关技术
信息交互相关技术
杜琳发明人的其他相关专利技术