首页 / 控制装置及控制方法

控制装置及控制方法实质审查 发明

技术领域

[0001] 本发明涉及一种控制装置,且特别是涉及一种控制装置及控制方法。

相关背景技术

[0002] 为了给用户带来沉浸式体验,各种技术不断地被开发,例如增强实境(augmented reality;AR)和虚拟实境(virtual reality;VR)等。AR技术允许用户将虚拟元素带入现实世界。VR技术允许用户进入整个一个全新的虚拟世界,体验不一样的生活。并且,穿戴式装置常用来提供这些沉浸式体验。

具体实施方式

[0017] 现将详细地参考本发明的示范性实施例,示范性实施例的实例说明于附图中。只要有可能,相同元件符号在图式和描述中用来表示相同或相似部分。
[0018] 并且,除非另有定义,本文使用的所有术语(包括技术和科学术语)具有与本发明所属领域的普通技术人员通常理解的相同的含义。将进一步理解的是,诸如在通常使用的字典中定义的那些术语应当被解释为具有与它们在相关技术和本发明的上下文中的含义一致的含义,并且将不被解释为理想化的或过度正式的意义,除非本文中明确地这样定义。
[0019] 通过参考以下的详细描述并同时结合附图可以理解本发明。须注意的是,为了使读者能容易了解及为了图式的简洁,本发明中的多张图式只绘出电子装置的一部分,且图式中的特定元件并非依照实际比例绘图。此外,图中各元件的数量及尺寸仅作为示意,并非用来限制本发明的范围。
[0020] 须知悉的是,以下所举实施例可以在不脱离本发明的精神下,将数个不同实施例中的技术特征进行替换、重组、混合以完成其他实施例。并且,在下文说明书与权利要求书中,“含有”与“包括”等词为开放式词语,因此其应被解释为“含有但不限定为…”之意。
[0021] 为了给用户带来沉浸式体验,各种技术不断地被开发,例如增强实境(augmented reality;AR)和虚拟实境(virtual reality;VR)等。AR技术允许用户将虚拟元素带入现实世界。VR技术允许用户进入整个一个全新的虚拟世界,体验不一样的生活。并且,穿戴式装置常用来提供这些沉浸式体验。
[0022] 在虚拟世界中,若要对物体进行控制,可由控制装置或使用者的位置,例如使用者身体的任一部位(手腕、手指),发射出一道射线。并且,射线所指向的物体,则为被控制的物体。然而,此种控制方法须先指定与辨识射线的起始位置并对使用者所指向的方向进行精准的判断,对于识别的准确度要求较高,从而提高在设计控制装置时的复杂程度。并且,使用者往往需要维持在特定的姿势或手势(例如握拳或张开),以进行正确的控制。也就是说,当使用者所指向的方向不清楚或是没有维持在特定的姿势或手势时,误判可能就会产生。再者,由于使用者须维持在特定的手势,从而不能随意地摆放,降低了使用体验。此外,透过控制装置或手势移动射线的过程也很容易发生控制装置或手势辨识不清,以及射线扫过其他物件时容易产生误触的情况。因此,如何在使用者保持舒适的姿态下,同时能够简单且有效地在虚拟世界中对物体精准地进行控制,是本领域技术人员一直以来所追求的课题。
[0023] 图1A是依照本发明的一实施例的一种控制装置的示意图。参照图1A,控制装置100适于控制虚拟世界中的物体。并且,控制装置100包括显示器120以及控制器110。显示器120用以显示虚拟世界。控制器110耦接显示器120。
[0024] 值得注意的是,控制器110可用以执行以下功能。首先,在显示器120所显示的虚拟世界中,在使用者的周围形成控制面。接着,在显示器120所显示的虚拟世界中,从物体发射出第一射线。在一实施例中,第一射线可从物体的表面所发射,且第一射线是直线或曲线,本发明并不加以限制。然后,在显示器120所显示的虚拟世界中,基于第一射线,在控制面上形成第一控制点。在显示器120所显示的虚拟世界中,根据第一控制点,对物体进行第一控制。如此一来,使用者可经由控制面上的第一控制点,简单且直觉地对物体进行精确的控制。
[0025] 在一实施例中,控制器110可基于从物体所发射出的第一射线与使用者周围的控制面的交会点,在控制面上形成所述第一控制点。然而,本公开并不以此为限。在一实施例中,控制装置100例如为头戴式显示器(head‑mounted display,HMD)、穿戴式眼镜(例如,AR/VR护目镜)、电子装置、其它类似装置或这些装置的组合上。然而,本公开并不以此为限。
[0026] 在一实施例中,控制器110例如为控制器(Microcontroller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)、微处理器(Microprocessor)、数字信号处理器(Digital Signal Processor,DSP)、可编程控制器、可编程逻辑装置(Programmable Logic Device,PLD)或其他类似装置或这些装置的组合,本发明并不加以限制。此外,在一实施例中,控制器110的各功能可被实作为多个程序代码。这些程序代码会被存储在一个存储器中,由控制器110来执行这些程序代码。或者,在一实施例中,控制器110的各功能可被实作为一或多个电路。本发明并不限制用软件或硬件的方式来实作控制器110的各功能。
[0027] 在一个实施例中,显示器120例如包括有机发光二极管(Organic Light‑Emitting Diode,OLED)显示装置、迷你LED(Mini LED)显示装置、微型LED(Micro LED)显示装置、量子点(Quantum Dot,QD)LED显示装置、液晶显示(Liquid‑Crystal Display,LCD)装置、平铺(Tiled)显示设备、可折迭(Foldable)显示设备或电子纸显示器(Electronic Paper Display,EPD)。然而,本公开并不以此为限。
[0028] 图1B是依照本发明的一实施例的一种控制系统的示意图。控制系统10包括控制装置100以及摄影机130。控制装置100的细节可参照图1A的描述,在此不多加赘述。
[0029] 在一个实施例中,摄影机130包含例如互补金属氧化物半导体(complementary metal oxide semiconductor,CMOS)相机或电荷耦合装置(charge coupled device,CCD)相机,且辅助光单元包括红外照射单元。然而,本公开并不以此为限。此外,在一个实施例中,摄影机130可设置于控制装置100之外,从而一体地形成控制系统10。在另一实施例中,摄影机130可设置于控制装置100中。也就是说,本公开并不限定摄影机130设置的位置。
[0030] 在一实施例中,摄影机130可用以取得(拍摄)使用者在真实世界中的图像。并且,控制器110可基于取得的图像进行图像处理,从而判断使用者的意图。也就是说,控制器110可根据摄影机130取得的图像,产生与使用者的意图有关的使用者命令。
[0031] 在一实施例中,摄影机130可取得使用者图像。使用者图像包括在真实世界中的使用者的手(亦称真实手)或手持遥控器。控制器110可从摄影机130接收上述使用者图像。并且,控制器110可根据使用者图像,判断在虚拟世界中使用者的虚拟手或控制锚点是否接触控制面上的第一控制点。举例而言,在虚拟世界中使用者的虚拟手或控制锚点可对应于在真实世界中的手或手持遥控器,从而在虚拟世界中进行操作。当使用者在虚拟世界中的虚拟手或控制锚点接触第一控制点时,使用者可经由第一控制点,对物体进行各种控制。换句话说,响应于虚拟手或控制锚点接触第一控制点,控制器110可对物体进行第一控制。补充说明的是,为了方便说明,以下以虚拟手来进行描述,但本公开并不限制在虚拟世界中是以虚拟手、控制锚点或其他具有相似功能的物件来进行操控。
[0032] 在一实施例中,当使用者的虚拟手接近或接触第一控制点时,第一控制点可显示为反白(待选取)的状态。在一实施例中,当使用者的虚拟手接近或接触第一控制点时,第一控制点所对应的物体的周围图像或物体所发射的第一射线可显示提示标示,例如图像变色、亮度增加、轮廓强化、显示文字或动画说明、播放音效、或是第一射线变色、反白、跳动等变化。如此一来,使用者可清楚地得知目前可经由第一控制点来控制物体。
[0033] 在一实施例中,控制面可例如为平面、立方体表面、圆柱面、圆球面或椭圆球面,但本公开并不以此为限。在一实施例中,控制面与使用者之间的控制面距离可以是一预设距离,例如为40公分,但本公开并不以此为限。在一实施例中,控制面距离可以根据使用者的个人参数来决定。在一实施例中,使用者的个人参数可例如包括使用者的手臂长度、前臂长度、身高、头长或其他与各种身体数据,本公开并不以此为限。由于人体比例有一定的规律,因此可以根据任一或多种身体数据的组合,推算出最适合使用者的控制面距离。在一实施例中,立方体表面、圆柱面、圆球面或椭圆球面的中心(例如重心、圆心或球心)或焦点可重迭于使用者。举例而言,控制面为一个球面。并且,球面的中心重迭于使用者的中心点,且球面的半径小于或等于使用者的手臂长度或前臂长度。又或者,控制面可为两个球面。并且,两个球面的中心分别位于使用者的左边的肩膀的中心点与右边的肩膀的中心点,且两个球面的半径小于或等于使用者的手臂长度或前臂长度。也就是说,控制面可形成于使用者的周围,使得使用者可轻易地碰触到控制面。此外,使用者可以依据本身姿态或应用情境,选择适合的控制面形状。再者,使用者还可以依据实际使用情境调整控制面的位置及范围(大小),其实施方式于后续实施例中会再详细说明。
[0034] 在一实施例中,控制装置100中设置有感测器,并且感测器可侦测使用者配戴控制装置100的位置,从而自动地取得使用者的个人参数。在另一实施例中,摄影机130可将拍摄包含使用者的姿态的姿态图像,并且控制器110可基于姿态图像,自动地计算出使用者的个人参数。在又一实施例中,使用者可自行地输入使用者的个人参数至控制装置100。换句话说,本公开并不限制使用者的个人参数的取得方式。
[0035] 值得一提的是,使用者是经由邻近的控制面上的控制点来对物体进行控制,而不是直接地对远方的物体进行控制。如此一来,使用者可轻易且准确地对物体进行控制,从而增加使用体验。
[0036] 图2是依照本发明的一实施例的一种使用情境的示意图。参照图1A至图2,情境200包括在虚拟世界中的使用者U、物体220(又称为猫)以及物体230(又称为按钮区)。物体220以及物体230可各自包括多个控制区域。并且,物体220以及物体230的每个控制区域可分别地朝向使用者U的方向发射出射线221、222、223、231、232、233。此外,在使用者U的周围形成控制面210。
[0037] 在一实施例中,控制面210是一个虚拟面,以及/或是任一射线221、222、223、231、232、233是虚拟射线。也就是说,使用者U平常可能看不到控制面210以及射线221、222、223、
231、232、233的存在。仅有在当使用者U的手靠近或接触隐藏的控制面210或是控制点时,控制面210或是射线221、222、223、231、232、233才会浮现出来。并且,当使用者U的手远离控制面210或是控制点时,控制面210或是射线221、222、223、231、232、233可再度进入隐藏的状态。换句话说,控制器110可根据在虚拟世界中使用者U的虚拟手与控制面210之间的手部距离或是使用者U的虚拟手与控制点之间的手部距离,判断将控制面210或是射线221、222、
223、231、232、233显示或隐藏。如此一来,控制面210或是射线221、222、223、231、232、233仅会在使用者U需要对物体进行控制的时候才浮现出来,从而不会影响到使用者U的视觉观感。在一实施例中,可以透过物体本身的图像效果或播放音效,来取代显示控制面210和射线221、222、223、231、232、233。换句话说,本公开并不限制控制面210以及射线221、222、
223、231、232、233的实际呈现方式,图2仅为方便说明的一种实施方式。
[0038] 值得一提的是,在控制面210以及射线221、222、223、231、232、233处在隐藏的状态时,使用者U的虚拟手可任意地摆放。也就是说,由于此时控制面210以及射线221、222、223、231、232、233处在隐藏的状态,使用者U的虚拟手不会触发对控制面210上的控制点的控制。
如此一来,在不需要进行控制的时候,使用者U的虚拟手可不受限制地舒适地摆放,从而增加使用体验。
[0039] 在一实施例中,物体220(猫)可包括多个控制区域。举例而言,物体220的头部是第一控制区域,物体220的身体是第二控制区域,且物体220的脚是第三控制区域。第一控制区域可发射出射线221(又称为第一射线),第二控制区域可发射出射线222(又称为第二射线),且第三控制区域可发射出射线223(又称为第三射线)。在一实施例中,射线221、222、223的起点可分别地位于第一控制区域、第二控制区域以及第三控制区域的中心点,但本公开并不以此为限。并且,射线221、222、223可分别地与控制面210交会,从而形成第一控制点、第二控制点以及第三控制点。
[0040] 补充说明的是,在一些实施例中,使用者U可点选第一控制点,使得物体220产生被摸头的效果。并且,使用者U可点选第二控制点,使得物体220产生被搔痒的效果。再者,使用者U可点选第三控制点,使得物体220进行移动或旋转。当物体220进行移动或旋转时,物体220所对应的多个控制点在控制面210上也会相应地进行移动。也就是说,控制器110可根据物体220所对应的不同的控制点,对物体220进行不同的控制。并且,控制器110可根据物体
220的移动或旋转,移动物体220所对应的控制点在控制面210上的位置。如此一来,使用者U可根据物体220所对应的多个控制点,对物体220做出各种控制。
[0041] 在一实施例中,物体230(按钮区)可包括多个控制区域。举例而言,物体230由上至下可包括第一按钮、第二按钮以及第三按钮。第一按钮可发射出射线231(又称为第一射线),第二按钮可发射出射线232(又称为第二射线),且第三按钮可发射出射线233(又称为第三射线)。射线231、232、233可分别地与控制面210交会,从而形成第一控制点、第二控制点以及第三控制点。
[0042] 补充说明的是,在一些实施例中,物体230所对应的第一控制点、第二控制点以及第三控制点可组成控制群组,以使第一控制点、第二控制点以及第三控制点同步地被调整(例如调整显示方式、控制点之间的控制点距离或个别控制点的控制点位置),以方便使用者进行选取与控制。
[0043] 举例而言,控制群组中的控制点可以被同步地显示或隐藏。例如,在控制群组有显示且使用者的虚拟手接近、接触或选取控制群组时,控制器110可淡化显示控制面210上除了控制群组以外的内容。也就是说,当控制群组被选取时,控制面210可仅显示单一或多个被选取的控制群组,以方便使用者U专注于控制群组的内容。
[0044] 又举例而言,控制群组可以被同步地设置放大率(相当于设置控制点距离)。例如,当控制群组被选取时,控制器110可将控制群组中的控制点距离同步放大,以使控制点的分布较原先分散,例如可以使控制点距离至少为5公分,但本公开并不以此为限。需要说明的是,关于控制点的控制点距离的调整方式,在后续的实施例中会再详细说明。
[0045] 再举例而言,控制群组可以被同步地设置控制点的偏移位置(控制点位置)。例如,当控制群组被选取时,控制器110可将控制群组中的控制点同步移动到控制面210上较为宽敞或固定的区域。如此一来,藉由调整控制群组中的控制点的控制点位置,可以方便使用者U对控制点精准地进行控制。
[0046] 另外举例而言,控制群组中的控制点可以键盘的形式显示在控制面210上,以让使用者方便对键盘上的各个按键(Key)进行碰触,从而控制物体230上的各个按钮(Button)。如此一来,使用者U可直觉地对物体230输入各种指令(控制指令),从而增加在虚拟世界中的操控的便利性并提升使用者的输入速度。
[0047] 图3A是依照本发明的一实施例的一种操控手势的示意图。图3B是依照本发明的一实施例的一种操控手势的示意图。图3C是依照本发明的一实施例的一种操控手势的示意图。参照图1A至图3C,手势300A、手势300B以及手势300C分别地绘示使用者U在虚拟世界中的虚拟手H在进行控制时的各种姿势。
[0048] 在一实施例中,摄影机130可用以拍摄使用者U在真实世界中的真实手的姿势的图像,并且控制器110可基于摄影机130拍摄的图像进行图像处理。接着,控制器110可传输信号至显示器120,使得使用者U在虚拟世界中的虚拟手H产生对应于真实世界中的真实手的动作。然而,本公开并不以此为限。
[0049] 手势300A、手势300B以及手势300C各自包括手指F1(又称为第一手指或拇指)、手指F2(又称为第二手指或食指)以及捏取(Pinch)点PP。在一实施例中,捏取点PP可设置于手指F1至手指F2的连线中较靠近手指F1的位置。一般而言,使用者U的虚拟手H在捏取时,手指F1的移动量会小于手指F2的移动量。如此一来,使用者U可较轻易地完成对捏取点PP的捏取。
[0050] 在一实施例中,使用者U可经由对捏取点PP进行捏取,来对虚拟世界中的物体220或物体230进行选取或进行确认。举例而言,当捏取点PP重迭或为唯一最接近于物体220对应的控制点时,使用者U可对捏取点PP进行捏取,以对物体220进行选取或进行确认。在一实施例中,使用者U可对捏取点PP捏取一段预设时间或捏取后再放开,以出现子视窗功能或进行确认。换句话说,使用者U可对捏取点PP进行捏取,以触发物体220对应的控制点,进而对物体220进行控制。
[0051] 值得一提的是,使用者U在对捏取点PP进行捏取时,手指F1以及手指F2以外的其他手指可保持任意的姿势。也就是说,使用者U可随意地挑选自己感到舒适的姿势(如图3A或图3B或其他手势),并进行捏取的动作。并且,在一实施例中,如图3C所示,在使用者U的手指F1以及手指F2接触到捏取点PP后,手指F1以及手指F2可继续地向手心收拢,并保持握拳的姿势。并且,经由保持握拳的姿势,使用者U可对捏取点PP维持选取的状态。然而,本公开并不以此为限。举例而言,使用者可以透过其他手势,例如手部往上下左右前后的任一方向滑动,以选择、触发或取消选择物体220对应的控制点。如此一来,使用者U在虚拟世界中,能够不受手势的局限,可以最舒适的姿态来进行控制,从而提升使用体验。
[0052] 图4是依照本发明的一实施例的一种操控情境的示意图。参照图1A至图4,情境400绘示在虚拟世界中的使用者U的虚拟手H的捏取后并进行拖移的动作。在一实施例中,使用者U进行捏取后,虚拟手H的手指F1以及手指F2可保持在捏取的状态,以对控制的对象(例如物体220)进行拖移。
[0053] 需要说明的是,如图4所示,使用者U在进行拖移时,虚拟手H的手腕可任意地翻转。也就是说,虚拟手H的手腕不用维持在特定的角度。若是在手腕维持在特定的角度进行拖移,使用者U的姿势会受到限制。换句话说,经由仅判断手指F1以及手指F2之间的相对关系(例如距离),来维持捏取的状态,对于使用者U来说可更灵活地进行操控。如此一来,使用者U可在符合人体工学的情况下,进行各种操控,进而提升使用体验。
[0054] 图5A是依照本发明的一实施例的一种操控情境的示意图。参照图1A至图5A,情境500A示意地绘示使用者U、控制面CTR以及物体OBJ之间的关系。如图5A所示,物体OBJ可包括控制区域E1(又称为第一控制区域)、控制区域E2(又称为第二控制区域)、控制区域E3(又称为第三控制区域)以及控制区域E4(又称为第四控制区域)。控制区域E1~E4可位于物体OBJ的表面,但本公开并不以此为限。多条射线(例如第一射线至第四射线)可分别地从控制区域E1~E4面向使用者U的方向发射。在一实施例中,多条射线的起点可分别地位于控制区域E1~E4的中心点,但本公开并不以此为限。并且,对应于控制区域E1~E4的多条射线可分别地交会于控制面CTR,从而形成控制区域E1’(又称为第一控制点)、控制区域E2’(又称为第二控制点)、控制区域E3’(又称为第三控制点)以及控制区域E4’(又称为第四控制点)。
[0055] 再者,控制区域E1~E4彼此之间的距离可称为控制区域距离,且控制点E1’~E4’彼此之间的距离可称为控制点距离。举例而言,控制区域E1与控制区域E2之间的距离可标示为控制区域距离D1A,且控制点E1’与控制点E2’之间的距离可标示为控制点距离D2A。
[0056] 此外,对应于控制区域E1~E4的多条射线可全部地交会于投影点P。举例而言,控制区域E1所发射的射线(又称为第一射线)与控制区域E2所发射的射线(又称为第二射线)均交会于投影点P。也就是说,对应于控制区域E1~E4的多条射线的起点分别为控制区域E1~E4的中心,且对应于控制区域E1~E4的多条射线的终点均为投影点P。
[0057] 值得一提的是,控制点E1’~E4’是基于对应的射线交会于控制面而形成,且控制点E1’~E4’对应的射线是基于作为起点的控制区域E1~E4的中心以及作为终点的投影点P而形成。换句话说,当投影点P的位置改变时,控制点E1’~E4’之间的控制点距离(例如控制点距离D2A)也会相应地跟着改变。
[0058] 举例而言,当投影点P位于使用者的后方且再往使用者的后方(例如图5A的左方)移动时(即距离使用者U较原先的投影点P更远),控制点E1’~E4’会往彼此靠近。换句话说,控制点E1’~E4’之间的控制点距离(例如控制点距离D2A)会减少。相反地,当投影点P位于使用者的后方且往使用者的前方(例如图5A的右方)移动时(即距离使用者U较原先的投影点P更近),控制点E1’~E4’会往彼此远离。换句话说,控制点E1’~E4’之间的控制点距离(例如控制点距离D2A)会增加。因此,在一实施例中,使用者U可经由调整投影点P的位置(即使用者U与投影点P之间的投影点距离),来调整控制面CTR上所显示的控制点E1’~E4’之间的控制点距离(即显示的倍率)。也就是说,控制器110可基于投影点P与使用者U的位置,决定控制点E1’与控制点E2’之间的控制点距离D2A。
[0059] 另外,由于邻近于使用者U的控制面CTR位于投影点P与物体OBJ之间,控制点E1’~E4’之间的控制点距离(例如控制点距离D2A)会小于控制区域E1~E4之间的控制区域距离(例如控制区域距离D1A)。也就是说,控制器110可响应于使用者U位于投影点P与物体OBJ之间,设定第一控制点与第二控制点之间的控制点距离D2A小于控制区域E1与第二控制区域E2之间的控制区域距离D1A。
[0060] 附带一提的是,控制面CTR的位置及范围(大小)可被进一步调整。举例而言,图5A的控制面CTR可包括原点C与限制范围,且在限制范围之外的射线及对应的控制点既不显示也不能被控制。在一实施例中,原点C可设置于于控制面CTR的中心位置,但本公开并不以此为限。在一实施例中,当使用者U想对控制面CTR的位置进行调整时,可用单手(或双手)的虚拟手H去拖移控制面CTR的原点C。举例而言,使用者U可以将控制面CTR拉近或远离使用者U。例如,当使用者U的双手同时往前延伸时,可将控制面CTR(包括原点C)的位置往使用者U的前方移动(即距离使用者U较原先的控制面CTR更远)。也就是说,控制器110可响应于原点C的位置,设定控制面CTR与使用者U之间的控制面距离。
[0061] 再举例而言,使用者U可以将控制面CTR往与使用者U距离不变的任一方向(例如使用者U的上下左右)移动。例如,当使用者U的双手同时往左移动时,可将控制面CTR(包括原点C)的位置往使用者U的左方移动。再举例而言,当双手往不同方向移动时,可以将控制面CTR往双手中点的方向移动。例如,当使用者U的左手往使用者U的左方移动,而右手往使用者U的上方移动时,可将控制面CTR往左上方移动。如此一来,使用者U可以依据实际使用情境,藉由拖移控制面CTR的原点C的位置,来移动控制面CTR的位置,进而调整控制面CTR所涵盖的控制点范围。
[0062] 进一步而言,在一实施例中,当使用者U想对控制面CTR的范围大小进行调整时,可用单手或双手的虚拟手H去缩放控制面CTR的限制范围。举例而言,使用者U可以将控制面CTR的范围放大或缩小。例如,当使用者U的双手往远离彼此的方向移动时,可以扩大控制面CTR的限制范围,以包含到较多控制点(例如包含到图5A中的控制点E1’~E4’之外的其他控制点)。也就是说,响应于使用者U扩大控制面的限制范围CTR,本来位于限制范围外的无效控制点可被移动至限制范围内,从而将无效控制点设定为有效控制点。
[0063] 再例如,当使用者U的双手往靠近彼此的方向移动时,可以缩减控制面CTR的限制范围,以包含到较少的控制点(例如减少到只包含控制点E2’与E3’)。也就是说,响应于使用者U缩减控制面CTR的限制范围,本来位于限制范围内的有效控制点可被移动至限制范围外,从而将有效控制点设定为无效控制点。如此一来,使用者U可以依据实际用情境,调整控制面CTR的位置与范围,以更精准与快速地选择控制面CTR上的控制点。
[0064] 图5B是依照本发明的一实施例的一种操控情境的示意图。参照图1A至图5B,情境500B示意地绘示使用者U、控制面CTR以及物体OBJ之间的关系。相较于在图5A中,使用者U设置于投影点P以及物体OBJ之间,在图5B中,物体OBJ设置于使用者U以及投影点P之间。其中控制区域E1与控制区域E2之间的距离可标示为控制区域距离D1B,且控制点E1’与控制点E2’之间的距离可标示为控制点距离D2B。另外,图5B中绘示了限制范围R,在后续的实施例中会进行说明。关于使用者U、控制面CTR以及物体OBJ的细节可参照图5A的描述,在此不多加赘述。
[0065] 类似于图5A,当图5B的投影点P的位置改变时,控制点E1’~E4’之间的控制点距离(例如控制点距离D2B)也会相应地跟着改变。举例而言,当投影点P位于使用者的前方且再往使用者的前方(例如图5B的右方)移动时(即距离使用者U较原先的投影点P更远),控制点E1’~E4’会往彼此靠近。换句话说,控制点E1’~E4’之间的控制点距离(例如控制点距离D2B)会减少。相反地,当投影点P位于使用者的前方且往使用者的后方(例如图5B的左方)移动时(即距离使用者U较原先的投影点P更近),控制点E1’~E4’会往彼此远离。换句话说,控制点E1’~E4’之间的控制点距离(例如控制点距离D2B)会增加。因此,在一实施例中,使用者U可经由调整投影点P的位置(即使用者U与投影点P之间的投影点距离),来调整控制面CTR上所显示的控制点E1’~E4’之间的控制点距离(即显示的倍率)。也就是说,控制器110可基于投影点P与使用者U的位置,决定控制点E1’与控制点E2’之间的控制点距离D2B。
[0066] 另外,由于物体OBJ设置于投影点P以及邻近于使用者U的控制面CTR之间,控制点E1’~E4’之间的控制点距离(例如控制点距离D2B)会大于控制区域E1~E4之间的控制区域距离(例如控制区域距离D1B)。也就是说,控制器110可响应于物体OBJ位于投影点P与使用者U之间,设定第一控制点与第二控制点之间的控制点距离D2B大于控制区域E1与第二控制区域E2之间的控制区域距离D1B。
[0067] 此外,在一实施例中,投影点P可以设置于使用者U、控制面CTR以及物体OBJ之间,以得到对应于物体OBJ上的控制区域呈上下左右相反分布的控制点。或者,在一实施例中,投影点P可以设置于使用者U的前方或后方的无穷远,以得到对应于物体OBJ上的控制区域呈相同分布的控制点,即各控制点之间的控制点距离将与物体OBJ上的对应的各控制区域之间的距离相同。如此一来,经由调整投影点P的位置和使用者U与投影点P之间的投影点距离,使用者U可调整控制面CTR或控制面CTR上的任一控制群组的显示倍率(放大率),即能够调整控制面CTR上的控制点距离(例如图5A的控制点距离D2A或图5B的控制点距离D2B),从而获得较佳的视觉体验,同时能够简单且有效地在虚拟世界中对物体精准地进行控制。并且,经由调整控制面CTR(例如透过调整控制面CTR的原点C)的位置或范围,使用者U可调整使用者U与控制面CTR之间的控制面距离以及控制面CTR所涵盖的控制点范围(限制范围R),从而能处在舒适的姿态下对控制面CTR进行操控,进而增加较佳的使用体验。
[0068] 需要说明的是,为了方便说明,图5B中控制面CTR绘示为有限的长度(有限的平面)。然而,在一些实施例中,控制面CTR为无限延伸的平面。此外,图5B中绘示了限制范围R,用以表示控制面CTR的有效的控制区域或有效的显示区域。在一实施例中,限制范围R是控制面CTR上的有效控制点的涵盖范围。举例而言,限制范围R内的控制点为有效控制点,而在限制范围R外的控制点为无效控制点。也就是说,响应于在虚拟世界中使用者U的虚拟手接触在控制范围R内的有效控制点,控制器110可接受使用者U的控制指令。并且,响应于在虚拟世界中使用者U的虚拟手接触在控制范围R外的无效控制点,不接受使用者U的控制指令。
[0069] 举例而言,图5B中绘示了由投影点P为起点并经过物体OBJ的虚线(射线),并且相交于控制面CTR的限制范围R外,从而形成无效控制点。由于无效控制点位于控制面CTR的限制范围R外,控制器110会不执行使用者U对于无效控制点的操作。如此一来,经由设置限制区域R,可避免误操作的发生,从而增加使用体验。
[0070] 图6是依照本发明的一实施例的一种控制方法的流程图。参照图1以及图6,控制方法600示意地控制装置100的操作流程,但本公开并不以此为限。在本实施例中,控制方法600包括步骤S610至步骤S640。
[0071] 在步骤S610中,控制器110可传输信号至显示器120,使得在显示器120所显示的虚拟世界中的使用者U的周围形成控制面210。在步骤S620中,控制器110可传输信号至显示器120,使得在显示器120所显示的虚拟世界中的物体(例如物体220或物体230)发射出第一射线(例如射线221~233的其中之一)。在步骤S630中,控制器110可传输信号至显示器120,使得显示器120可基于第一射线,在控制面210上形成(显示)第一控制点。在步骤S640中,控制器110可传输信号至显示器120,从而让使用者U根据第一控制点,控制物体(例如物体220或物体230)。需要说明的是,相关的实施细节可参照图1至图5B的描述,在此不多加赘述。如此一来,使用者U可经由控制面210上的第一控制点,简单且直觉地对物体进行精确的控制。
[0072] 综上所述,本发明的控制装置以控制方法采用了控制面来对虚拟世界中的物体进行控制。因此,使用者可在保持舒适的姿态下,同时能够简单且有效地在虚拟世界中对物体精准地进行控制。
[0073] 最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

当前第1页 第1页 第2页 第3页
相关技术
控制装置相关技术
装置控制相关技术
锺维人发明人的其他相关专利技术