技术领域
[0001] 本发明涉及线上授课技术领域,尤其涉及一种实现在线课堂的新型方法、装置、设备及介质。
相关背景技术
[0002] 随着现代信息技术的飞速发展以及互联网的普及,远程教育和在线学习已成为现代教育中不可或缺的一部分。传统授课方式(如集中授课、面对面讲座等)虽在长时间内发挥了重要作用,但在现代信息技术不断发展的今天,也逐渐暴露出一些问题。
[0003] 传统授课方式通常在固定时间和地点进行,这对因工作、生活等原因无法到场的学员造成了极大的不便,特别是对分散在各地的学员而言,难以保证教育的全覆盖和及时性。因此需要研究一种实现在线课堂的新型方法来解决现有技术存在的问题。
具体实施方式
[0055] 应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
[0056] 本申请实施例提供一种实现在线课堂的新型方法。所述实现在线课堂的新型方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述实现在线课堂的新型方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
[0057] 参照图1所示,为本发明一实施例提供的实现在线课堂的新型方法的流程示意图。在本实施例中,所述实现在线课堂的新型方法包括:
[0058] S1、建立3D虚拟课堂场景模型,在所述3D虚拟课堂场景模型中建立虚拟人物模型。
[0059] 本发明实施例中,所述建立3D虚拟课堂场景模型,以及所述在所述3D虚拟课堂场景模型中建立虚拟人物模型,是利用Unity实现对3D场景以及虚拟人物模型的创建。利用Unity的3D建模工具和图形渲染技术,可以设计并建立一个高度逼真的虚拟课堂环境。这个环境可以包括教室的布局、家具、装饰以及其他必要的教学设施,所有这些都可以在Unity中以3D模型的形式创建和配置。此外,为了丰富虚拟课堂的互动性,可以在Unity中创建虚拟人物模型。这些模型可以代表教师、学生或其他参与者,它们可以被赋予不同的外观特征、动作和表情,以模拟真实人物的行为。Unity提供了强大的动画系统和AI行为控制工具,使得这些虚拟人物模型能够进行自然的动作和响应,从而增强学员的沉浸感。
[0060] 通过Unity实现的3D虚拟课堂场景模型和虚拟人物模型,不仅能够提供视觉上的吸引力,还能够通过交互式功能和实时反馈,提升用户的学习体验。这种技术的应用,使得远程教育和在线学习变得更加生动和有效,同时也为教育工作者提供了一个创新的平台,以探索新的教学方法和策略。
[0061] 详细地,Unity是一款功能强大的实时3D互动内容创作和运营平台,广泛应用于游戏开发、美术设计、建筑设计、汽车设计以及影视制作等多个领域。是由Unity Technologies开发的一款跨平台的游戏开发引擎。它不仅是一个游戏引擎,更是一个实时3D互动内容创作和运营平台。
[0062] 本发明实施例中,所述3D虚拟课堂场景模型,是根据预设的场景需求创建的一个特定的场景模型,所述3D虚拟课堂场景模型的创建是一个高度定制化的过程,它基于特定的教育内容和教学目标来设计。这种模型不仅仅是一个简单的虚拟环境,而是一个详细构建的场景,旨在模拟历史事件、文化背景或其他教育主题,以增强学习体验和知识的传递。例如,如果教学内容涉及到中国历史上的著名历史事件,那么3D虚拟课堂场景模型就会根据这一历史事件的具体需求来创建。这个场景模型将包括事件发生地的精确3D模型,以及周围环境的详细再现,如河流、山脉、桥梁结构等。通过这种高度仿真的场景模型,学生可以更加直观地理解历史事件的背景和环境条件。教师可以利用这个模型来提供一个沉浸式的学习环境。学生仿佛置身于历史现场,能够更深刻地感受到历史事件的紧迫感和重要性。此外,这种3D虚拟课堂场景模型还可以集成交互式元素,如角色扮演或决策树,让学生通过互动来更深入地学习和体验。这种教学方法不仅提高了学生的学习兴趣,还有助于提高他们对复杂历史事件的理解和记忆。
[0063] 本发明实施例中,所述虚拟人物模型需要结合所述3D虚拟课堂场景模型进行创建,虚拟人物模型的创建与3D虚拟课堂场景模型紧密相连,它们共同构成了一个完整的虚拟教学环境。这种设计方法确保了虚拟人物与其所处环境的和谐统一,以及在视觉上和情境上的一致性,从而提高了虚拟课堂的真实感和教育效果。例如,以历史事件为例,当3D虚拟课堂场景模型被设定为这一特定历史场景时,虚拟人物模型的创建就需要与这一背景相匹配。在这种情况下,虚拟人物模型可以被设计成一个历史人物的形象,包括其服装、装备、面部表情和动作等,都要尽可能地还原历史真实性。此外,还可以通过Unity等3D引擎的动画系统,为这个虚拟人物模型添加逼真的动作,如行动、交流等,使其在虚拟课堂中的行为更加自然和生动。
[0064] 通过将虚拟人物模型与3D虚拟课堂场景模型相结合,教师可以利用这些高度仿真的虚拟人物来讲述历史故事,模拟历史事件,或者进行角色扮演等教学活动。学生则可以通过与这些虚拟人物的互动,更直观地理解历史事件的背景、过程和影响,从而加深对历史知识的理解和记忆。
[0065] 本发明实施例中,所述3D虚拟课堂场景模型中包含一个幕布模型。
[0066] 本发明实施例中,所述建立3D虚拟课堂场景模型,在所述3D虚拟课堂场景模型中建立虚拟人物模型,包括:
[0067] 利用建模软件根据预设的场景需求建立场景模型,得到3D虚拟课堂场景模型;
[0068] 根据预设的人物需求建立人物模型,得到虚拟人物模型;
[0069] 根据所述3D虚拟课堂场景模型的尺寸大小以及预设的比例调整所述虚拟人物模型的尺寸大小;
[0070] 将调整后的虚拟人物模型设置在所述3D虚拟课堂场景模型中。
[0071] 详细地,所述预设的比例,是指虚拟人物模型与所述3D虚拟课堂场景模型的比例大小。
[0072] 本发明实施例中,通过建立3D虚拟课堂场景模型,在所述3D虚拟课堂场景模型中建立虚拟人物模型,提高了在线课堂的沉浸感。
[0073] S2、实时获取投屏视频,将所述投屏视频在所述3D虚拟课堂场景模型中的幕布进行实时播放。
[0074] 本发明实施例中,所述实时获取投屏视频,是利用open broadcaster software实时录制视频,得到投屏视频。
[0075] 详细地,所述open broadcaster software是一款免费且开源的视频录制和直播软件,它支持Windows、Mac和Linux操作系统。OBS因其易于使用和强大的功能而受到广泛欢迎,适用于各种视频录制和直播场景。
[0076] 本发明实施例中,所述将所述投屏视频在所述3D虚拟课堂场景模型中的幕布进行实时播放,是利用预设设置的视频流接收单元接收所述投屏视频,并在所述3D虚拟课堂场景模型中幕布模型上进行播放。在所述3D虚拟课堂场景模型中,虚拟幕布模型充当了一个显示界面,它能够将接收到的视频流以实时的方式呈现给所有参与虚拟课堂的用户。这样的设计不仅增强了虚拟课堂的互动性和沉浸感,还为用户提供了一种新颖的教学和学习体验。通过这种方式,授课人可以轻松地将视频材料整合到他们的课程中,而学员则可以在一个更加生动和直观的环境中学习。此外,这种实时播放功能还可以支持多种格式的视频内容,确保了广泛的兼容性和便利性。
[0077] 详细地,所述视频接收流单元是通过在Unity中编辑代码实现。
[0078] 本发明实施例中,所述将所述投屏视频在所述3D虚拟课堂场景模型中的幕布进行实时播放,包括:
[0079] 获取所述投屏视频的路径地址;
[0080] 根据所述路径地址将所述投屏视频导入所述3D虚拟课堂场景模型中;
[0081] 在所述3D虚拟课堂场景模型中建立幕布模型;
[0082] 利用插件工具将所述投屏视频渲染到所述幕布模型表面进行实时播放。
[0083] 详细地,所述插件工具是指Unity中视频播放插件,包括AVPro Video,UniVideoPlayer。
[0084] 详细地,所述AVPro Video是一款功能强大的Unity视频播放插件,能够播放多种常见的视频格式,包括MP4、MOV、WMV等,同时高分辨率和高比特率的视频也能流畅播放。支持360度全景视频和立体3D视频播放,为虚拟现实(VR)和增强现实(AR)应用提供了强大的支持,所述AVPro Video能够提供视频的色彩调整功能,包括亮度、对比度、饱和度等的调整。支持视频的裁剪和缩放,可以适应不同的屏幕尺寸和显示需求。所述AVPro Video可以在视频上添加各种特效,如模糊、发光等,增强视觉效果。
[0085] 详细地,所述UniVideoPlayer是一个用于Unity的视频播放插件可以在多个平台上运行,包括Windows、Mac、Linux、Android和iOS等。这使得开发者可以在不同的设备上实现一致的视频播放体验。所述UniVideoPlayer支持多种常见的视频格式,如MP4、MOV、AVI等,这使得开发者可以直接使用现有的视频资源,无需进行复杂的格式转换。
[0086] 本发明实施例中,通过实时获取投屏视频,提高了在所述3D虚拟课堂场景模型中实时播放投屏视频的效率,通过将所述投屏视频在所述3D虚拟课堂场景模型中的幕布进行实时播放,提高了在线课堂的授课效果。
[0087] S3、实时获取授课人的操作信号,根据所述操作信号控制所述虚拟人物模型进行移动。
[0088] 本发明实施例中,所述实时获取授课人的操作信号,是利用预设的外部设备获取授课人的操作信号。
[0089] 详细地,所述外部设备可以是键盘,鼠标,VR眼镜以及手柄等设备。
[0090] 本发明实施例中,所述实时获取授课人的操作信号,根据所述操作信号控制所述虚拟人物模型进行移动,包括:
[0091] 利用外部设备获取授课人的操作信号;
[0092] 将所述操作信号转化为驱动信号;
[0093] 根据所述驱动信号控制所述虚拟人物模型进行移动。
[0094] 详细地,所述将所述操作信号转化为驱动信号的过程是一个关键的技术环节,它确保了授课人通过外部设备进行的操作能够被准确地转化为计算机程序可以理解和执行的信号。这一过程涉及到信号的捕捉、解析、转换和执行,是实现虚拟课堂互动性的基础。
[0095] 具体地,当授课人使用外部设备(如键盘、鼠标、VR眼镜或手柄等)进行操作时,这些设备会生成相应的操作信号。这些信号是授课人意图的直接体现,例如,当授课人按下手柄上的向前移动按钮时,这个操作信号需要被转化为一个明确的指令,以便程序能够识别并执行。为了实现这一目标,系统首先需要捕捉到外部设备产生的操作信号。这通常通过设备驱动程序或专用的输入处理软件来完成。然后,系统会解析这些信号,将其转换为程序可以理解的数据格式。例如,向前移动的按钮按压可以被转换为一个特定的数据值或代码。接下来,系统将这些数据值或代码进一步转化为驱动信号。在Unity这样的游戏开发引擎中,这通常意味着将操作信号转换为Unity能够识别的程序代码信号。例如,向前移动的指令可以被转换为Unity中的一个函数调用,如MoveForward(),这个函数会触发相应的动画或物理移动,使虚拟人物或对象在虚拟环境中向前移动。
[0096] 本发明实施例中,通过实时获取授课人的操作信号,根据所述操作信号控制所述虚拟人物模型进行移动,提高了在线课堂的沉浸感。
[0097] S4、实时获取授课人的音频数据,在所述3D虚拟课堂场景模型中实时播放所述音频数据,并将所述音频数据转化为实时字幕在所述3D虚拟课堂场景模型中的幕布中同步展示。
[0098] 本发明实施例中,所述音频数据,是指授课人的授课声音。
[0099] 本发明实施例中,所述实时获取授课人的音频数据,是利用麦克风实时录制授课人的授课声音。
[0100] 本发明实施例中,所述在所述3D虚拟课堂场景模型中实时播放所述音频数据,是利用Audio Source组件在所述虚拟人物模型中创建音频承载对象,来播放音频数据,采用Audio Source组件来创建音频承载对象。这个音频承载对象可以附加到虚拟人物模型上,或者作为独立的音频播放设备存在于虚拟课堂中。通过将音频数据(如理论课讲解、背景音乐、历史录音等)分配给Audio Source组件,就可以在虚拟课堂中播放这些音频。当音频数据通过Audio Source组件在虚拟人物模型中播放时,可以利用Unity的3D音效技术,如空间混合(Spatial Blend)、衰减(Rolloff)、多普勒效应(Doppler Effect)等,来模拟声音在三维空间中的传播特性。这样,参与者可以根据声音的方向和距离感受到更加真实的听觉体验,从而提高在线课堂的沉浸感。此外,Audio Source组件还允许对音频进行进一步的控制和调节,如调整音量、音调、循环播放等,以满足不同教学环节的需求。通过这种方法,在线课堂不仅能够提供视觉上的模拟,还能够提供听觉上的模拟,使得远程教育更加生动和有效。
[0101] 本发明实施例中,所述将所述音频数据转化为实时字幕在所述3D虚拟课堂场景模型中的幕布中同步展示,包括:
[0102] 利用预先设置的人工智能单元将所述音频转化为字幕数据;
[0103] 在所述3D虚拟课堂场景模型中的幕布上创建文本对象;
[0104] 利用字幕脚本控制所述字幕数据在所述文本对象中进行显示。
[0105] 详细地,所述人工智能单元,是是一种语音转文字功能模块。可以通过第三方提供的语音识别服务实现该模块,常见的第三方语音识别服务包括Google Cloud Speech‑to‑Text,Microsoft Azure Speech以及百度语音识别等。
[0106] 详细地,所述Google Cloud Speech‑to‑Text是一项强大的语音识别服务,它能够将音频文件转换为文本。这项服务利用了机器学习技术,可以识别超过80种语言和语言变体,包括中文、日语、英语甚至广东话。使用这项服务的基本流程包括设置Google Cloud项目、启用Speech‑to‑Text API、创建API密钥、准备声音文件,并可能需要将声音文件上传到Google Cloud Storage。然后,可以通过编写请求文件并使用curl命令或编程语言中的SDK来调用API,实现语音到文本的转换。
[0107] 详细地,所述Microsoft Azure Speech是一项由微软提供的云服务,它包括多种语音识别和语音合成功能。这项服务能够将语音转换为文本(Speech to Text),将文本转换为语音(Text to Speech),以及提供语音翻译和说话人识别等功能。Azure Speech服务通过其Speech SDK支持多种编程语言,包括C#、C++、Java、JavaScript等,并且可以在多个平台上使用。Azure Speech的Speech to Text功能支持实时语音转文本和批量语音转文本。实时语音转文本适用于需要立即转录的场景,如会议记录、字幕生成等。批量语音转文本则适用于处理存储中的大量音频文件,如呼叫中心的通话记录分析。此外,Azure Speech还提供了自定义语音模型的能力,允许用户根据自己的需求训练和优化模型,以提高特定场景下的识别准确率。
[0108] 详细地,所述百度语音识是百度AI开放平台提供的一项服务,它采用了国际领先的流式端到端语音语言一体化建模算法,能够将语音快速准确地识别为文字。这项服务支持多种应用场景,如手机应用语音输入、机器人对话、语音内容分析和实时语音转写等。通过融合了百度的自然语言处理技术,具有极高的普通话识别准确率。
[0109] S5、根据所述音频数据识别授课人的授课活跃系数,根据所述授课活跃系数对授课人进行适应性提示。
[0110] 本发明实施例中,所述授课活跃系数,是一个用于衡量授课人演讲的活跃程度的系数。
[0111] 本发明实施例中,所述根据所述音频数据识别授课人的授课活跃系数,包括:
[0112] 提取所述音频数据中的连续人声片段,得到人声音频;
[0113] 对所述人声音频进行去噪处理,得到去噪音频;
[0114] 识别所述去噪音频的能量峰值,得到能量峰值集合;
[0115] 计算所述能量峰值集合的标准差,得到授课活跃系数。
[0116] 详细地,所述标准差是统计学中衡量数据集中数值分布散布程度的一个常用指标。它能够反映数据集中的数值与数据集平均值(均值)之间的偏离程度。标准差越大,数据的波动越大;标准差越小,数据的波动越小,即数据越集中,是描述数据集中心位置和离散程度的重要指标。
[0117] 详细地,所述提取所述音频数据中的连续人声片段,得到人声音频,是利用VAD技术去除所述音频数据中的静音部分,保留有效语音部分,得到所述人声音频。
[0118] 详细地,所述去噪处理是数字信号处理领域中的一项关键技术,它旨在从含有噪声的音频信号中提取出纯净的语音或音乐成分。这一技术在提高语音通信质量、语音识别准确性以及音乐制作等多个领域都有着广泛的应用。常见的去噪处理方法包括线性滤波器,谱减法以及维纳滤波。
[0119] 详细地,所述线性滤波器是通过设计适当的滤波器,如低通、高通、带通或带阻滤波器,来减少特定频率范围内的噪声成分。
[0120] 详细地,所述谱减法是通过估计噪声的频谱并从信号中减去这部分噪声来实现去噪。
[0121] 详细地,所述维纳滤波是通过最小化误差的平方和来优化滤波器的系数,以在保持语音信号完整性的同时减少噪声。
[0122] 详细地,所述对所述人声音频进行去噪处理,得到去噪音频,包括:
[0123] 对预先获取的噪声样本进行频谱分析,得到噪声频谱;
[0124] 对所述噪声频谱进行平滑处理,得到预处理噪声频谱;
[0125] 对所述人声音频进项票频谱分析,得到人声频谱;
[0126] 利用所述人声频谱减去所述预处理噪声频谱,得到去噪音频。
[0127] 详细地,所述预先获取的噪声样本,是一段没有人声的背景噪声,可以从所述提取所述音频数据中的连续人声片段的步骤中去除的静音片段获取。
[0128] 详细地,所述对预先获取的噪声样本进行频谱分析,是通过对所述噪声样本进行傅里叶变化,通过分析噪声样本的频率、振幅和时间特性来识别频谱特性。
[0129] 详细地,所述对所述噪声频谱进行平滑处理,是为了减少噪声频谱中的随机波动,从而更准确地估计噪声的特性。
[0130] 本发明实施例中,所述根据所述音频数据识别授课人的授课活跃系数,根据所述授课活跃系数对授课人进行适应性提示,是通过分析授课人音频的能量波动程度得到一个授课活跃系数,来反映授课人的活跃程度。具体来说,系统会实时监测和分析授课人在讲课过程中的音频信号,特别关注音频的能量波动程度。音频能量波动程度是指授课人声音的强度和频率变化,这些变化可以反映出授课人的声音动态和表达的活力。通过先进的音频处理和分析技术,系统能够计算出一个数值,即授课活跃系数,它是一个量化指标,用来衡量授课人在特定时间内的活跃程度。获得授课活跃系数后,系统会根据这个系数的高低来进行适应性提示。如果系数显示授课人的活跃度较低,系统可能会自动提供一些非侵入式的提示或建议,比如通过改变背景音乐的节奏、亮度或者在屏幕上显示鼓励性的信息,来激发授课人提高其授课的活跃度。相反,如果系数较高,表明授课人已经处于一个较为活跃的状态,系统则可能会减少或调整这些提示,以避免过度干扰。
[0131] 本发明实施例中,学员可以通过VR设备,电脑等设备参与在线课堂,以提高参与在线课堂的沉浸感。
[0132] 本发明实施例中,通过根据所述音频数据识别授课人的授课活跃系数,根据所述授课活跃系数对授课人进行适应性提示,提高了在线课堂的授课效果。
[0133] 如图2所示,是本发明一实施例提供的实现在线课堂的新型装置的功能模块图。
[0134] 本发明所述实现在线课堂的新型装置100可以安装于电子设备中。根据实现的功能,所述实现在线课堂的新型装置100可以包括模型建立模块101、录屏投屏模块102、模型驱动模块103、音频同步模块104及活跃系数计算模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
[0135] 在本实施例中,关于各模块/单元的功能如下:
[0136] 所述模型建立模块101,用于建立3D虚拟课堂场景模型,在所述3D虚拟课堂场景模型中建立虚拟人物模型;
[0137] 所述录屏投屏模块102,用于实时获取投屏视频,将所述投屏视频在所述3D虚拟课堂场景模型中的幕布进行实时播放;
[0138] 所述模型驱动模块103,用于实时获取授课人的操作信号,根据所述操作信号控制所述虚拟人物模型进行移动;
[0139] 所述音频同步模块104,用于实时获取授课人的音频数据,在所述3D虚拟课堂场景模型中实时播放所述音频数据,并将所述音频数据转化为实时字幕在所述3D虚拟课堂场景模型中的幕布中同步展示;
[0140] 所述活跃系数计算模块105,用于根据所述音频数据识别授课人的授课活跃系数,根据所述授课活跃系数对授课人进行适应性提示。
[0141] 详细地,本发明实施例中所述实现在线课堂的新型装置100中所述的各模块在使用时采用与上述图1至图3中所述的实现在线课堂的新型方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
[0142] 如图3所示,是本发明实施例提供的实现在线课堂的新型方法的电子设备的结构示意图。
[0143] 所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如实现在线课堂的新型程序。
[0144] 其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如实现在线课堂的新型程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
[0145] 所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如实现在线课堂的新型程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
[0146] 所述通信总线12可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
[0147] 所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI‑FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在本实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light‑Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
[0148] 图中仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图中示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
[0149] 例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi‑Fi模块等,在此不再赘述。
[0150] 应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
[0151] 所述电子设备1中的所述存储器11存储的实现在线课堂的新型程序是多个指令的组合,在所述处理器10中运行时,可以实现:
[0152] 建立3D虚拟课堂场景模型,在所述3D虚拟课堂场景模型中建立虚拟人物模型;
[0153] 实时获取投屏视频,将所述投屏视频在所述3D虚拟课堂场景模型中的幕布进行实时播放;
[0154] 实时获取授课人的操作信号,根据所述操作信号控制所述虚拟人物模型进行移动;
[0155] 实时获取授课人的音频数据,在所述3D虚拟课堂场景模型中实时播放所述音频数据,并将所述音频数据转化为实时字幕在所述3D虚拟课堂场景模型中的幕布中同步展示;
[0156] 根据所述音频数据识别授课人的授课活跃系数,根据所述授课活跃系数对授课人进行适应性提示。
[0157] 具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
[0158] 进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read‑Only Memory)。
[0159] 本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
[0160] 建立3D虚拟课堂场景模型,在所述3D虚拟课堂场景模型中建立虚拟人物模型;
[0161] 实时获取投屏视频,将所述投屏视频在所述3D虚拟课堂场景模型中的幕布进行实时播放;
[0162] 实时获取授课人的操作信号,根据所述操作信号控制所述虚拟人物模型进行移动;
[0163] 实时获取授课人的音频数据,在所述3D虚拟课堂场景模型中实时播放所述音频数据,并将所述音频数据转化为实时字幕在所述3D虚拟课堂场景模型中的幕布中同步展示;
[0164] 根据所述音频数据识别授课人的授课活跃系数,根据所述授课活跃系数对授课人进行适应性提示。
[0165] 在本发明所提供的实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
[0166] 所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0167] 另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
[0168] 对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
[0169] 因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
[0170] 本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
[0171] 此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
[0172] 最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。