首页 / 标准化考场考生实时监控方法

标准化考场考生实时监控方法失效专利 发明

技术领域

[0001] 本发明属于图像处理及目标检测技术领域,具体地涉及到标准化考场监控视频中获得的单帧图像中考生的识别、定位。

相关背景技术

[0002] 考试是我国各类人才考核与选拔的重要手段,事关考生切身利益,社会关注度高,近年的各类重要考试中,标准化考场已经发挥着重要作用。在标准化考场的中央视频监控中,一名监控老师需要以人眼观察的方式同时监控9个考场的视频信息。长时间、不间断的连续工作不可避免地会引起监视人员的“视觉疲劳”和“顾此失彼”现象,极易导致考生异常情况漏报,因此将先进的计算机视觉技术融入标准化考场监控大数据,智能地分析考生行为的需求越来越迫切。
[0003] 对标准化考场中考生位置的准确检测是智能分析考生行为的前提和基础,而基于单帧场景的考生行为涉及图像中的目标检测技术,包含目标识别与定位。目标识别指根据图像中提取的特征判断目标是什么,而目标定位指在图像中进一步找出感兴趣目标的位置信息。考场监控视频单帧图像的学生定位与计数是目标检测技术在标准化考场的一个重要应用,其过程涉及到很多图像处理和图像分析技术,例如对图像中人的形体特征的提取、背景及噪声干扰的抑制、检测区域交并比计算等方面。目前,国内外的图像目标检测方法主要有基于图像阈值的目标检测方法、基于帧间差分和双线性插值的目标检测方法和基于边缘碎片模型的目标识别方法等。上述目标识别及定位方法应用于标准化考场监控视频的单帧图像时,所存在的主要技术问题是目标识别率不高,定位准确度低,甚至出现大量漏检或无法计算等问题。这导致现有方法在标准化考场监控的场景下以学生异常行为检测为目的的应用微乎其微。

具体实施方式

[0039] 下面结合附图和实例对本发明进行进一步的说明,但本发明不限于下述实例。
[0040] 实施例1
[0041] 从标准化考场考生数据集中选取9张像素为704×576的考场图像(见图2)为例,在图1中,本实施例的标准化考场考生实时监控方法,由下述步骤组成:
[0042] (1)制作单帧考场图像数据集
[0043] 将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为30分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:4划分为训练集和测试集。
[0044] (2)预处理图像
[0045] 将训练集和测试集中图像的像素调整为长边W为1000像素,短边H为600像素的图像。
[0046] (3)设置超参数
[0047] 设置分类数为2、训练集训练轮数为36、训练批次尺寸为4、基础学习率参数为0.01、学习率衰减因子为0.9。
[0048] (4)构建实时监控模型
[0049] 监控模型包括特征提取阶段、特征融合阶段、候选区域建议阶段、分类回归阶段;
[0050] 1)特征提取阶段,选用MobileNetV2网络作为主干网络提取特征,输出到特征融合阶段,MobileNetV2网络为已知网络,已在CVPR国际会议2018年6月公开。通过此阶段改进,网络模型的参数量由64.4兆减少到18.89兆。
[0051] 2)特征融合阶段,将1×1、W/32×H/32、W/16×H/16大小的特征图,通过1×1卷积、双线性插值,调整成大小为W/16×H/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段;本实施例的W为1000,H为600。通过此阶段改进检测图片帧率由8.88帧数/秒提高到11.12帧数/秒。
[0052] 3)候选区域建议阶段,用5×5深度可分离卷积核代替3×3的普通卷积核,将生成特征图输出到分类回归阶段。通过此阶段改进检测图片帧率由11.12帧数/秒提高到25.63帧数/秒。
[0053] 4)分类回归阶段,用深度可分离卷积层替代第一个全连接层,减少一层共享全连接层,得到实时监控模型。通过此阶段改进模型参数量由17.02兆减少到4.19兆,同时检测图片帧率由25.63帧数/秒提高到26.70帧数/秒。
[0054] (5)训练实时监控模型
[0055] 通过考场图像数据集训练实时监控模型的步骤为:
[0056] 1)将标准化考场考生数据集中图像按照步骤(2)进行预处理,输出到实时监控模型,使用imagenet数据集上的权重初始化实时监控模型的MobileNetV2网络权重,初始化的方法为本技术领域的常规方法。
[0057] 2)将按步骤(2)预处理后的训练集输入到实时监控模型;设定交叉熵函数L为损失函数如下:
[0058]
[0059] 其中y(i)为第i类期望输出,取值为0或1, 为第i类实际输出,取值为0~1区间的实数,N是总类别数目、为有限的正整数,使用梯度下降法降低损失函数的损失值进行前向传播和反向传播,梯度下降法为本技术领域的常规方法;反复循环24~48个前向传播和反向传播轮数,并更新网络的权重值和偏置,得到训练好的实时监控模型权重。
[0060] (6)测试预处理后的测试集图像
[0061] 1)设置测试参数
[0062] 设置目标的类别置信度阈值为0.7。
[0063] 2)测试
[0064] 将步骤(2)预处理后的测试集内的图像输入到训练好的实时监控模型中,得到图像中每个目标的位置坐标、所属类别以及所属类别的置信度。
[0065] 3)筛选检测结果
[0066] 在检测结果中,保留类别置信度大于置信度阈值的目标位置坐标信息、类别信息和所属类别的置信度信息。
[0067] 4)输出考生位置
[0068] 输出图像中类别置信度大于置信度阈值的考生位置信息和定位结果图,见图3。由图2、3可见,该实时监控模型可以准确获取考生的位置信息。
[0069] 实施例2
[0070] 从标准化考场考生数据集中选取9张像素为704×576的考场图像为例,本实施例的标准化考场考生实时监控方法,由下述步骤组成:
[0071] (1)制作单帧考场图像数据集
[0072] 将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为10分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:3划分为训练集和测试集。
[0073] (2)预处理图像
[0074] 将训练集和测试集中图像的像素调整为长边W为800像素,短边H为400像素的图像。
[0075] (3)设置超参数
[0076] 设置分类数为2、训练集训练轮数为24、训练批次尺寸为2、基础学习率参数为0.005、学习率衰减因子为0.85。
[0077] (4)构建实时监控模型
[0078] 监控模型包括特征提取阶段、特征融合阶段、候选区域建议阶段、分类回归阶段;
[0079] 1)特征提取阶段,选用MobileNetV2网络作为主干网络提取特征,输出到特征融合阶段;
[0080] 2)特征融合阶段,将1×1、W/32×H/32、W/16×H/16大小的特征图,通过1×1卷积、双线性插值,调整成大小为W/16×H/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段;本实施例的W为800,H为400。
[0081] 该步骤的其它步骤与实施例1相同。
[0082] (5)训练实时监控模型
[0083] 该步骤与实施例1相同。
[0084] (6)测试预处理后的测试集图像
[0085] 1)设置测试参数
[0086] 设置目标的类别置信度阈值为0.5。
[0087] 该步骤与实施例1相同。
[0088] 其它步骤与实施例1相同。
[0089] 实施例3
[0090] 从标准化考场考生数据集中选取9张像素为704×576的考场图像为例,本实施例的标准化考场考生实时监控方法,由下述步骤组成:
[0091] (1)制作单帧考场图像数据集
[0092] 将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为100分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:5划分为训练集和测试集。
[0093] (2)预处理图像
[0094] 将训练集和测试集中图像的像素调整为长边W为1200像素,短边H为800像素的图像。
[0095] (3)设置超参数
[0096] 设置分类数为2、训练集训练轮数为48、训练批次尺寸为6、基础学习率参数为0.015、学习率衰减因子为0.95。
[0097] (4)构建实时监控模型
[0098] 监控模型包括特征提取阶段1、特征融合阶段2、候选区域建议阶段3、分类回归阶段4;
[0099] 1)特征提取阶段1,选用MobileNetV2网络作为主干网络提取特征,输出到特征融合阶段;
[0100] 2)特征融合阶段2,将1×1、W/32×H/32、W/16×H/16大小的特征图,通过1×1卷积、双线性插值,调整成大小为W/16×H/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段;本实施例的W为1200,H为800。
[0101] 该步骤的其它步骤与实施例1相同。
[0102] (5)训练实时监控模型
[0103] 该步骤与实施例1相同。
[0104] (6)测试预处理后的测试集图像
[0105] 1)设置测试参数
[0106] 设置目标的类别置信度阈值为0.8。
[0107] 该步骤与实施例1相同。
[0108] 其它步骤与实施例1相同。
[0109] 为了验证本发明的有益效果,发明人采用本发明实施例1的标准化考场考生实时监控方法与现有的目标检测(FPN)方法、目标检测(Retinanet)方法、目标检测(SSD512)方法进行了对比试验,实验结果见表1。
[0110] 表1改进后模型和现有模型性能对比表
[0111] 网络模型 参数量(兆) 平均精度(%) 训练时间(分钟/轮) 测试速度(帧数/秒)FPN 60.44 89.9 10.22 6.70Retinanet 55.72 89.4 7.74 8.64
SSD512 27.19 89.5 3.56 10.64
实施例1 4.19 88.2 3.10 26.70
[0112] 由表1可见,本发明实时监控模型参数量比其它3种方法减少为4.19M;平均精度比最好的FPN模型下降了1.7%,达到88.2%;训练时间为3.10分钟/轮,最少;测试速度达到26.70帧数/秒,比其它3种方法提升,满足实时性要求。

当前第1页 第1页 第2页 第3页
相关技术
标准化考场相关技术
监控方法相关技术
马苗发明人的其他相关专利技术