首页 / 实时渲染方法及装置

实时渲染方法及装置实质审查 发明

技术领域

[0001] 本发明涉及数据处理领域,具体而言,涉及一种实时渲染方法及装置。

相关背景技术

[0002] 随着虚拟现实、增强现实等技术的发展,虚拟对象和虚拟场景的实时渲染成为了相关应用的关键技术。然而,在现有技术中,虚拟对象和场景的实时渲染面临着速度较慢的问题,尤其是在涉及复杂动作、姿态变化和大量交互事件的情况下。因此,亟需一种能够提升渲染速度和渲染质量的实时渲染方法,以解决现有技术中的相关问题,优化虚拟对象和场景的交互表现,实现更加流畅的实时渲染效果。
[0003] 针对上述的问题,目前尚未提出有效的解决方案。

具体实施方式

[0017] 为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
[0018] 需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0019] 根据本发明实施例,提供了一种实时渲染方法的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
[0020] 图1是根据本发明实施例的实时渲染方法,如图1所示,该方法包括如下步骤:
[0021] 步骤S102,实时从动捕装置获取原始动捕数据,并对所述原始动捕数据进行预处理,得到预处理数据,其中,所述预处理包括数据清洗、异常点检测和去噪处理。
[0022] 步骤S104,利用基于多层次多尺度分析的卡尔曼滤波方法,对所述预处理数据进行多维滤波处理,得到滤波后的多维数据。
[0023] 例如,基于多层次分析,提取所述预处理数据中的时间、空间和频率特征,作为多尺度特征;基于所提取的多尺度特征,分别在不同的尺度上应用卡尔曼滤波,对每个尺度上的数据进行预测和更新,得到不同尺度下的滤波结果;将所述不同尺度下的滤波结果进行融合,生成所述滤波后的多维数据。
[0024] 步骤S106,解析所述滤波后的多维数据,得到所述滤波后的多维数据中的目标对象信息和相应的事件信息。
[0025] 从所述滤波后的多维数据中,识别并解析与所述虚拟场景中预设对象相对应的目标对象,得到目标对象信息;通过事件检测算法,分析与所述目标对象相关的动作和交互信息,提取并生成所述事件信息。
[0026] 步骤S108,对所述目标对象信息进行分类,将分类结果与虚拟场景中的对应模型进行匹配,并根据匹配结果动态调整虚拟对象的姿态、动作和位置。
[0027] 基于所述目标对象信息中的物理特征、动作特征以及交互信息,使用分类算法对所述目标对象进行分类;根据分类结果,查询所述虚拟场景中预设的对象模型库,确定与所述目标对象分类匹配的虚拟模型,作为所述对应模型。之后,根据匹配结果动态调整虚拟对象的姿态、动作和位置。
[0028] 步骤S110,基于所述事件信息,将动态调整后的所述虚拟对象与虚拟场景中的预设交互事件进行融合,生成优化后的渲染输入数据,并基于所述优化后的渲染输入数据,来渲染所述虚拟对象和所述虚拟场景。
[0029] 根据所述事件信息中检测到的交互类型,选择所述虚拟场景中的所述预设交互事件;将动态调整后的虚拟对象的动作、姿态和位置、以及所述预设交互事件,进行融合。基于所述虚拟对象的动作、姿态和位置,渲染所述虚拟对象的实时动画;基于所述预设交互事件,调用与所述事件相匹配的预先制作的动画序列;将所述预先制作的动画序列与所述虚拟对象的实时动画进行融合,生成包含所述虚拟对象和对应交互事件的虚拟场景;对所述虚拟场景进行整体渲染处理,以使得所述虚拟对象和所述交互事件在所述虚拟场景中的动态效果与环境一致。
[0030] 本申请实施例提供了另一种实时渲染方法,如图2所示,该方法包括以下步骤:
[0031] 步骤S202,获取原始动捕数据并进行预处理。
[0032] 通过实时捕获装置获取原始动捕数据。原始动捕数据包含目标对象的位置、姿态、动作等详细信息。由于原始动捕数据在采集过程中可能受到噪声干扰、误差影响或异常点产生,因此必须对数据进行预处理,以保证后续处理的准确性。
[0033] 首先对原始数据进行初步检查,去除采集过程中的重复、缺失或无效数据。数据清洗的目的是确保输入数据的完整性和一致性。之后,使用异常检测算法识别数据中的异常值,这些异常值是由于设备故障或采集环境变化引起的偏差。检测到的异常点会被标记并排除在后续处理之外。最后,采用滤波技术对数据进行去噪处理,例如使用中值滤波或高斯滤波等方法,消除由于设备噪声或外部环境干扰引起的数据波动,从而得到更加平滑、准确的预处理数据。
[0034] 步骤S204,多维卡尔曼滤波处理。
[0035] 为了提高数据的精度和稳定性,本发明采用基于多层次多尺度分析的卡尔曼滤波方法,对多维动捕数据进行处理。如图3所示,该方法包括以下步骤:
[0036] 步骤S2042,多层次分析。
[0037] 将预处理数据分解为时间、空间和频率特征,其中,时间、空间和频率特征表示目标对象在不同维度上的运动变化。时间特征表示目标对象动作的时间序列变化,空间特征表示目标对象在虚拟场景中的空间位置和姿态变化,频率特征用于识别目标对象运动的周期性。
[0038] 步骤S2044,提取多尺度特征。
[0039] 在不同的尺度上(如时间尺度和空间尺度)分别对所提取的特征进行分析,并生成多尺度特征。通过在不同尺度上观察数据,可以更细致地捕捉目标对象的复杂运动变化。
[0040] 步骤S2046,卡尔曼滤波处理。
[0041] 基于卡尔曼滤波算法,对每个尺度上的特征数据进行预测和更新。卡尔曼滤波通过递归估计的方式,结合历史数据和当前数据进行最佳预测。滤波过程不仅考虑了数据的当前状态,还参考了过去的运动趋势,从而获得更加平滑且精准的滤波结果。
[0042] 步骤S2048,多尺度融合。
[0043] 对于不同尺度下生成的滤波结果,将其进行融合处理,综合多尺度特征的优势,生成最终的滤波后的多维数据。滤波后的多维数据包含了时间、空间、频率等不同维度上的综合信息,能够为后续的目标对象解析和事件分析提供基础。
[0044] 步骤S206,解析滤波后的多维数据。
[0045] 将滤波后的多维数据进行解析,提取出目标对象信息和事件信息。具体地,解析多维数据,识别出与虚拟场景中的预设对象相对应的目标对象。目标对象信息包含了对象的物理特征、动作特征和姿态变化等。通过事件检测算法,分析目标对象的动作和交互行为,提取出相关的事件信息。事件信息描述了目标对象在虚拟场景中的动态交互情况,如对象的动作意图、与场景中其他对象的交互行为等。
[0046] 步骤S208,目标对象信息分类与模型匹配。
[0047] 如图4所示, 目标对象信息分类与模型匹配的方法包括以下步骤:
[0048] 步骤S2082,目标对象分类。
[0049] 基于目标对象的物理特征、动作特征和交互信息,使用分类算法(如支持向量机、决策树或神经网络等)对目标对象进行分类。例如,根据目标对象的骨架结构、动作模式、物理参数等将其归类为不同类型(如虚拟人、动物或机械装置)。
[0050] 步骤S2084,模型匹配。
[0051] 根据分类结果,从虚拟场景中的对象模型库中查询相应的虚拟模型。每个虚拟模型都预先设计了适应不同类型目标对象的动态行为和外观特征。通过将分类结果与模型库中的虚拟模型进行匹配,能够找到最符合目标对象当前状态的虚拟对象模型。
[0052] 步骤S2086,动态调整。
[0053] 找到匹配的虚拟模型后,系统能够根据目标对象的分类结果和动作特征,动态调整虚拟对象的姿态、动作和位置。动态调整是基于目标对象的实时动作数据进行的,以确保虚拟对象的姿态与目标对象的实际运动同步。
[0054] 步骤S210,渲染虚拟对象和虚拟场景。
[0055] 根据优化后的渲染输入数据,渲染虚拟对象的实时动画。具体地,虚拟对象的动作、姿态和位置数据被实时计算和渲染,以确保虚拟对象的动画与交互事件的发生时间和场景动态变化保持同步。例如,如果用户触发了某个按钮,虚拟对象的手部动作会随即呈现按下按钮的动画效果。
[0056] 在渲染虚拟对象的实时动画的同时,根据预设交互事件,调用与该事件相匹配的预先制作的动画序列。比如,当检测到碰撞事件时,可以调用预先制作的爆炸效果或场景变化动画。这些预制的动画序列通常是为了增强交互效果而提前设计和制作的,它们确保了复杂事件的表现具有一致性和高效性,并提高了渲染速度。
[0057] 将虚拟对象的实时动画与预先制作的动画序列进行融合。例如,当虚拟对象与场景中的物体碰撞时,虚拟对象的动态动作和姿态需要与预设的爆炸动画或物体分解动画同步展示。通过这种融合,最终生成包含虚拟对象和相应交互事件的完整虚拟场景,实现虚拟对象与虚拟场景的深度互动和视觉优化。
[0058] 通过上述步骤,本发明的实时渲染方法不仅提升了虚拟对象与场景之间的交互表现,还显著优化了渲染速度和质量。该方法通过多维数据的卡尔曼滤波处理、多尺度特征的融合分析、以及动态调整与事件融合的渲染策略,克服了现有技术中的渲染延迟和处理瓶颈,能够实现高效、逼真的虚拟对象和场景渲染,广泛适用于虚拟现实、增强现实等领域。
[0059] 本申请实施例还提供了又一种实时渲染方法,该方法通过对动捕数据的实时获取、数据的多维预处理、复杂的卡尔曼滤波处理、数据的解析与分类、动态对象匹配和渲染融合处理等步骤,显著提升了虚拟场景中对象的动态渲染效果,尤其适用于需要高效、精确渲染的虚拟现实场景。如图5所示,该方法包括以下步骤:
[0060] 步骤S502,采集原始动捕数据。
[0061] 利用实时动捕设备对目标对象的运动数据进行捕捉。例如,基于光学追踪的摄像头系统、惯性传感器、或其他能够实时跟踪目标对象动作、位置、姿态的设备,进行动作捕捉。动捕设备能够捕捉目标对象的复杂运动数据,包括其在三维空间中的位置,四元数或欧拉角表示的姿态信息,以及对象的运动速度、加速度等动态特征。
[0062] 步骤S504,进行预处理。
[0063] 动捕设备可能会由于外界干扰或自身灵敏度不足而采集到不准确的数据。此外,环境中的光线、物体遮挡等因素也可能影响数据的准确性。因此,需要对原始动捕数据进行预处理,以确保数据质量并提高后续步骤的处理效率。
[0064] 首先,进行数据清洗。数据清洗用于去除数据中的冗余或无效部分,确保输入数据的完整性。数据清洗过程中,首先需要对原始动捕数据进行初步检查,识别出缺失的数据、重复的数据点或无效的采集数据。例如,在多帧采集的过程中,如果某一帧的捕捉信息丢失或数据不完整,则将对此帧进行标记并丢弃。通过对这些冗余和无效数据的清洗,可以减少后续处理的复杂度。
[0065] 接着,进行异常点检测。异常点检测用于识别数据中的异常值。通过异常检测算法,如统计分析法、聚类分析或基于机器学习的异常检测模型,可以识别出与数据整体趋势不符的异常点。通常,异常点与正常数据相比会表现出突兀的变化,如极端高值或极端低值。系统会自动标记这些异常点,并在后续处理中将其排除。
[0066] 然后,进行去噪处理。原始动捕数据通常伴随着噪声,为了保证数据的平滑性和准确性,可以采用中值滤波的去噪处理算法来进行去噪。中值滤波能够有效去除噪声的同时保持边缘特征。对于动捕数据中的突发性噪声(如由于传感器抖动产生的错误数据),中值滤波能够很好地平滑数据。在另外一些实施例中,还可以采用高斯滤波的方法进行去噪。高斯滤波通过对信号进行平滑处理,消除高频噪声,使得数据更加连续。通过应用高斯核函数,可以调整滤波的力度,以在保留数据细节和消除噪声之间取得平衡。
[0067] 步骤S506,进行卡尔曼滤波处理。
[0068] 在本发明实施例中,应用基于多层次多尺度分析的卡尔曼滤波方法来进行滤波处理。具体如图6所示,包括以下步骤:
[0069] 步骤S5062,多层次分析。
[0070] 多层次分析是对动捕数据进行特征分解,提取时间、空间和频率等不同维度上的运动特征。通过这种分析,能够分别捕捉到目标对象在不同维度上的变化趋势。时间特征代表目标对象的运动轨迹随时间的变化。通过分析时间序列数据,能够捕捉到目标对象的动作模式,例如步伐的快慢、动作的频率等。空间特征描述目标对象在三维空间中的位置变化,包括其X、Y、Z坐标、方向角等。通过对空间特征的分析,可以准确定位目标对象在虚拟场景中的位置和方向。频率特征用于描述目标对象动作的周期性变化,如周期性重复的动作模式(例如行走、跑步等)。通过频域分析,能够捕捉到目标对象的运动节奏,从而更精确地预测其下一步的动作。
[0071] 步骤S5064,提取多尺度特征。
[0072] 对动捕数据的时间、空间和频率特征进行分层处理。每个维度的数据将被分解为多个不同尺度,以捕捉到运动的细节和全局特征。例如,在时间维度上,可以分别对短时间窗口和长时间窗口内的数据进行分析,以同时捕捉到短期动作变化和长期运动趋势;在空间维度上,可以同时分析局部位置信息和整体空间变化,从而确保对目标对象的全方位捕捉。
[0073] 步骤S5066,进行卡尔曼滤波处理。
[0074] 在提取出多尺度特征后,对每个尺度上的数据应用卡尔曼滤波算法。卡尔曼滤波通过递归的方式,在每一时刻利用当前观测值对目标对象的状态进行更新,并结合历史状态进行最佳估计。例如,根据目标对象的运动模型,对其未来状态进行预测。预测步骤基于之前的数据和模型假设,生成对目标对象下一时刻状态的估计。一旦获取到新的动捕数据,将当前观测数据与预测结果进行比对,并通过卡尔曼增益对预测结果进行修正,从而生成更新后的状态估计。
[0075] 在不同尺度上进行卡尔曼滤波处理后,将各个尺度上的滤波结果进行融合处理,生成滤波后的多维数据。多尺度融合的目的是将不同尺度下的数据优势结合在一起,从而生成包含时间、空间和频率等多维信息的综合数据。这些数据不仅能够反映目标对象的全局运动趋势,还能捕捉到其细微的动作变化。通过这种方式,能够对目标对象的复杂动作进行更为精确的建模和跟踪。
[0076] 步骤S508,解析滤波后的多维数据。
[0077] 如图7所示,解析滤波后的多维数据包括以下步骤:
[0078] 步骤S5082,提取目标对象信息。
[0079] 通过分析滤波后的多维数据,识别与虚拟场景中预设对象相对应的目标对象。通过解析三维空间中的位置、动作、姿态信息,确定目标对象在虚拟场景中的具体位置和动作方向。其中,目标对象信息包括骨骼运动信息、和运动速度和加速度信息。对于虚拟场景中的角色,骨骼运动信息是核心的动作特征。通过解析滤波数据,生成相应的骨骼位置和关节旋转角度等参数,进而驱动虚拟角色的动作。例如,当目标对象执行行走、奔跑等动作时,能够精确捕捉其脚步移动、膝盖弯曲、手臂摆动等细节动作。运动速度和加速度信息用于表示动作的快慢和变化速度。通过分析速度变化,可以生成符合实际的运动轨迹。为了模拟逼真的物理效果,还需要对目标对象的重心和平衡状态进行解析。例如,当目标对象突然改变运动方向时,其身体的重心和动作姿态将随之调整,通过动态平衡的计算,确保生成的虚拟动作符合物理规律。
[0080] 步骤S5084,生成事件信息。
[0081] 在解析目标对象动作特征的同时,还可以生成相关的事件信息。事件信息通常用来触发虚拟场景中的交互或行为逻辑,主要包括动作事件和状态事件。当目标对象执行特定动作时,生成相应的动作事件。例如,当角色完成跳跃、攻击或交互动作时,系统将这些动作标记为特定事件,并触发后续的场景互动。这些动作事件可以用于虚拟现实、增强现实中的互动情节设计,增强用户体验的沉浸感。除了动作事件,还可以根据目标对象的运动状态生成状态事件。例如,系统可以检测到角色进入奔跑状态、疲劳状态或跌倒状态等,并生成相应的状态事件。这些事件可以用于调整虚拟场景中的反馈机制,如改变角色的运动表现或与环境的互动。
[0082] 通过对滤波后的多维数据的解析,不仅能够生成目标对象的运动信息,还能够自动生成与场景互动相关的事件,从而为虚拟场景中的实时渲染提供丰富的动态输入。
[0083] 步骤S510,基于多维数据的动态对象匹配。
[0084] 首先,预定义虚拟对象模板。虚拟对象模板是预先在系统中创建的三维模型,包括虚拟场景中的角色、物体或其他动态对象。每个虚拟对象模板都包含几何数据和材质信息,并且需要能够与目标对象的动作特征进行匹配。在本发明实施例中,虚拟对象模板中通常包含预设的骨骼结构,包括关节、连杆等信息,这些骨骼结构与解析后的动捕数据相对应,从而实现精准的动作匹配。除了骨骼结构,虚拟对象模板还可以包含预定义的动作动画库。动画库中的每个动作片段都与特定的运动模式相关联,例如行走、奔跑、跳跃等。这些动画片段经过精细设计,以确保动作的自然流畅。
[0085] 接着,进行动态匹配。在动捕数据与虚拟对象模板的匹配过程中,通过动态匹配机制,确保目标对象的运动数据能够准确映射到虚拟对象上,实现自然的动作表现。具体地,首先将解析后的动捕数据转换为驱动虚拟对象的动作参数。动作参数通常包括关节旋转角度、骨骼位置、速度等,通过一一对应的方式,将这些驱动参数映射到虚拟对象的骨骼结构上。例如,动捕数据中的手臂抬起动作会被映射到虚拟角色的手臂骨骼上,驱动虚拟角色做出相应的动作。为了保证动作的连续性和流畅性,还可以进行动作补间计算。补间计算的目的是在两个不同动作状态之间生成过渡帧,确保动作切换时不会产生突兀感。补间计算通常基于插值算法,如线性插值、曲线插值等,通过平滑过渡生成自然的动作表现。由于目标对象的动作特征与虚拟对象模板之间可能存在一定的误差(例如动作幅度、节奏不完全一致),可以通过误差校正算法,实时调整动作驱动参数。例如,可以根据虚拟角色的体型比例,自动调整动作幅度,以确保匹配结果符合视觉预期。误差校正的过程是动态的,会根据目标对象的实时动作变化进行不断调整。
[0086] 步骤S512,确定预设交互事件。
[0087] 基于事件信息选择预设交互事件。根据解析出的事件信息,检测交互类型,例如,点击、碰撞、拖动等具体的交互方式或者是特效场景。根据所检测到的交互类型,从虚拟场景中选择与该交互类型相对应的预设交互事件。预设交互事件可以包括虚拟对象与场景中的其他对象发生碰撞、对象状态发生变化(如颜色、形状的改变),或是用户触发的特定动画效果等。
[0088] 在确定交互事件后,根据虚拟对象当前的状态(包括姿态、动作和位置等)对该虚拟对象进行动态调整,确保其能与交互事件有效结合。例如,虚拟对象的姿态可以根据交互事件进行修正,以符合场景中的实际需求。接着,将动态调整后的虚拟对象与预设的交互事件进行融合,得到优化后的渲染输入数据。
[0089] 步骤S514,进行渲染。
[0090] 首先,基于优化后的渲染输入数据,通过实例化操作生成多个虚拟对象实例。每个实例都被分配了独立的空间定位信息和裁剪ID,这使得每个虚拟对象能够根据不同的空间信息进行独立布置和管理。基于虚拟对象的物理位置及显示参数,生成渲染ID,并通过匹配渲染ID与裁剪ID,执行裁剪操作。随后,构建正交摄像机来设定渲染场景,并为摄像机配置裁剪比例参数。这些参数包括摄像机的宽高比和屏幕分辨率的关联设置,确保视角的动态调整,从而保证在屏幕上实现虚拟对象的实时渲染,并根据裁剪后的渲染数据进行实时更新,以确保渲染结果与虚拟对象的显示参数高度一致。
[0091] 在虚拟对象的动作、姿态和位置数据被实时计算后,渲染的虚拟对象的动画与交互事件的发生时间保持同步。例如,当用户触发某个按钮时,虚拟对象的手部动作会实时呈现按下按钮的动画效果。此外,还可以根据预设交互事件调用相应的预先制作的动画序列。比如,当检测到碰撞事件时,预设的爆炸效果或场景变化动画会被触发。通过这些预制动画的调用,系统可以在复杂交互事件中实现高效、连贯的表现效果,从而提升渲染速度和用户体验。
[0092] 为了增强系统的灵活性,渲染过程还结合了顶点偏移矩阵的优化。在构建顶点偏移矩阵时,参考预设的近裁剪面和模型的偏移量,动态调整每组渲染数据的顶点坐标。这样,渲染数据在显示过程中能够保持准确性和连续性。此外,虚拟对象的实时动画与预先制作的动画序列进行融合。当虚拟对象与场景中的物体发生碰撞时,其动态动作和姿态与预设的爆炸动画或物体分解动画同步展示。通过这种融合方式,能够生成包含虚拟对象和相应交互事件的完整虚拟场景,从而实现虚拟对象与虚拟场景的深度互动和视觉优化。
[0093] 本申请还提供了一种实时渲染装置,包括:预处理模块,被配置为实时从动捕装置获取原始动捕数据,并对所述原始动捕数据进行预处理,得到预处理数据,其中,所述预处理包括数据清洗、异常点检测和去噪处理;滤波模块,被配置为利用基于多层次多尺度分析的卡尔曼滤波方法,对所述预处理数据进行多维滤波处理,得到滤波后的多维数据;解析模块,被配置为解析所述滤波后的多维数据,得到所述滤波后的多维数据中的目标对象信息和相应的事件信息;匹配模块,被配置为对所述目标对象信息进行分类,将分类结果与虚拟场景中的对应模型进行匹配,并根据匹配结果动态调整虚拟对象的姿态、动作和位置;渲染模块,被配置为基于所述事件信息,将动态调整后的所述虚拟对象与虚拟场景中的预设交互事件进行融合,生成优化后的渲染输入数据,并基于所述优化后的渲染输入数据,来渲染所述虚拟对象和所述虚拟场景。
[0094] 需要说明的是:上述实施例提供的实时渲染装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的实时渲染装置与实时渲染方法实施例属于同一构思,其具体实现过程详见方法实施例,此处不再赘述。
[0095] 图8示出了适于用来实现本公开实施例的电子设备的结构示意图。需要说明的是,图8示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
[0096] 如图8所示,该电子设备包括中央处理单元(CPU)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有系统操作所需的各种程序和数据。CPU1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
[0097] 以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
[0098] 以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

当前第1页 第1页 第2页 第3页