技术领域
[0001] 本发明涉及用于多标签图像分类算法的技术领域,具体地说,是一种基于深度模糊系统的多标签分类方法。
相关背景技术
[0002] 多标签分类是机器学习中一个重要的研究领域,与传统的单标签分类问题不同,多标签分类允许一个实例同时属于多个类别。这一特点使得多标签分类更紧密地反映了现实世界情况的复杂性,如文本分类、图像识别、生物信息学、音乐和视频分类、医疗诊断等应用中广泛存在。现有的多标签分类算法主要可分为三类:问题变换方法、算法自适应方法和集成方法。
[0003] 问题变换方法涉及将多标签问题转化为一个或多个单标签问题进行解决,例如二元关联、标签幂集、分类器链等方法。这些方法可以直接应用,但可能无法充分利用标签之间的关系。算法自适应方法直接对多标签数据进行建模,而不需要将问题转换为单标签问题,例如基于k近邻的方法、基于决策树的方法和基于神经网络的方法。这些方法在捕获标签之间的依赖关系方面做得更好,但其复杂性和计算量更大。随着数据和应用的快速发展,对自适应算法在特征与标签关系建模方面的要求也在不断提高。
[0004] 由于其出色的数据表示能力,深度神经网络模型被广泛应用于学习新的特征空间,并将其输入到多标签分类器中,同时利用网络架构本身来探索标签相关性。然而,深度神经网络模型存在数据需求巨大、训练耗时高、模型复杂性大、模型可解释性弱等问题。深度神经网络模型的成功在于逐层处理、模型内特征转换和足够的模型复杂性。只要满足这些要求,可以基于任何组件构建深度模型。
[0005] 到目前为止,关于如何将基于深度模糊系统的分类系统应用于多标签分类的研究还没有文献报道。
具体实施方式
[0037] 一种基于深度模糊系统的多标签分类方法,包括:
[0038] 第一步首先基于输入特征生成初始模糊规则。如果在每个特征中定义了模糊集,特征空间将被划分为一系列的模糊区域,将这些模糊区域命名为cell。令S={st|t∈[1,z]}为cell的集合, 为cell的个数。 所对应的模糊规则如下式:
[0039]
[0040] 其中xi是落在第t个cell的任意实例,pt,j表示xi与yi,j之间的关联度,κt=(κt,1,κt,2,…,κt,d)表示由激活模糊集索引组成的向量,而t与κt之间的映射关系可由下式确定:
[0041]
[0042] 令xt表示落在第t个cell的样本集,则pt则可以由下式得出:
[0043]
[0044] 通过上述方法,我们可以学习训练样本覆盖的cell的参数。
[0045] 然而,对于没有样本落入的cell,它们的参数无法直接从训练数据中得出。则采用邻域均值策略来推算这些cell,该过程以迭代的方式实现。在遍历S期间,假设st是一个没有被任何训练样本覆盖的cell,我们首先为st找到相邻的cell。如果对任意 都有那么 称为st的邻居集合。然后,通过在 中对非零样本覆盖cell的对应值求平均,可以估计出pt。
[0046] 第二步由于采用堆栈泛化原理设计深度模型,利用其前一层的输出作为下一层的输入。对于第一层xi=(xi,1,xi,2,...,xi,d)表示原始输入。在对特征索引集进行Nr次有放回的重采样时,每次随机选择Ns个索引生成特征子集。
[0047] 通过这种方式,原始的d维特征空间划分为具有Ns维度的各种子空间。这些重新组织的低维数据集用于训练WM模糊系统 其中γ∈[1,Nr]和φ表示层索引。 的输出用表示。
[0048] 如果直接将所有WM模糊系统的输出连接起来,当l很大时下一层的输入维度会显著增加。为了实现有效的降维,我们在WM模糊系统索引集上进行了Ng次无放回的采样。每次采样都随机生成一个由Nm个WM模糊系统输出组成的组。
[0049] 则到第η组,其元素按 平均。所有组的平均结果连接起来作为下一层的输入。第一层和中间层的区别在于它们的输入来源。前者是原始训练数据,而后者是上一层的输出。对于输出层,与其他两种类型的层不同,处理WM模糊系统组的平均输出。设λη,δ表示第η组输出与第δ标签相关的权重。再输出层的末尾,可以通过下式来计算λη,δ°:
[0050]
[0051] 其中,Nl是层数。
[0052] 第三步则在中间层采用随机分组平均等特征变换策略来优化分类效果并减少特征维度。这个策略能够有效地提高训练效率,尤其适用于高维特征数据集。随机分组平均策略的好处在于它能够有效地减少了模型训练过程中的过拟合风险,并且提高了模型的泛化能力。通过随机分组,每次训练时都会得到不同的样本组合,从而增加了模型对于数据的多样性学习。这样可以有效地防止模型过度依赖特定的数据分布或样本顺序,从而提高了模型对于未知数据的适应能力。此外,随机分组平均策略还能够减少训练过程中的局部极小值问题,使得模型更加稳定,更容易收敛到全局最优解。因此,随机分组平均策略在提高模型鲁棒性、泛化能力和稳定性方面具有重要作用。
[0053] ML‑DFRBCS模型结合有放回随机抽样策略和随机分组平均策略,充分发挥各自的优势,提高模型的性能和泛化能力。这两种策略在数据处理和特征提取方面相辅相成。有放回随机抽样策略在处理大规模数据集时保持数据的恒定性和一致性,确保模型训练和预测过程的效率和可信度。随机分组平均策略通过将数据随机分组,并在每组内进行平均操作,有效降低模型训练过程中的过拟合风险,提高模型的泛化能力和稳定性。
[0054] 第四步在训练模型时将优化后的模糊规则输入到深度模型中,使用不依赖梯度计算的模型训练方法。将优化后的模糊规则输入到深度模型中,给定训练数据集D,以及其他参数,如每个特征中定义的模糊集数量n、执行有放回抽样的次数Nr、特征子空间的维度Nr、执行无放回抽样的次数Ng、每个组中的WM模糊系统数量Nm、以及层的数量Nl。
[0055] 接着,在每一层 中中,首先根据给定的特征数量和维度,生成不同的特征组合,每个组合包含Ns个特征。组合信息保存在 中。然后,根据生成的特征组合,重新组织输入数据为 这是这一层的输入数据集。
[0056] 对每一个特征组合,使用重组的数据 和给定的模糊集数量n构建WM模糊系统然后,根据训练数据集获取WM模糊系统的模型参数 并通过邻域平均策略估计WM模糊系统的缺失模型参数 接下来,使用重组的数据 对WM模糊系统 进行推理,获取输出 然后将WM模糊系统的输出分为Ng个组,每组包含Nm个输出。分组信息保存在V中。接着,对每一组的输出进行平均,得到 如果当前层是最后一层,则根据指定的公式计算与每个标签相关的不同WM模糊系统组的权重;否则,将所有组的平均结果拼接为下一层的输入数据。在所有层训练完毕后,返回训练结果。
[0057] 实验结果
[0058] 从各个方面通过更详细的实验来展示了ML‑DFRBCS模型的优势,验证了随机分组策略的作用,并研究了深度模糊系统构建块模糊集个数(n)和深度体系结构(有放回抽样次数Nr和系统层数Nl)所涉及的参数对所提方法性能的影响。本文已经进行了广泛的实验分析,以充分评价所提出的ML‑DFRBCS模型,评价包括对分类结果、参数设置等。
[0059] 实验是在Python 3.8.3环境下进行的,计算机的配置如下:Intel(R)Xeon(R)E‑2224CPU(3.40GHz)处理器,32GB内存,以及64位Windows 11系统。
[0060] 为了说明本发明方法的有效性以及对于分类效果的提升,在多个数据集上进行了测试,以Flags数据集为例,将本发明得到的测试结果与当前常用的方法进行对比,评估结果如下表1
[0061] 方法 平均精度 标准差ML‑DFRBCS 0.84 0.18
C2AE 0.74 0.36
ML‑KNN 0.80 0.24
CC 0.80 0.23
BR 0.81 0.22
JBNN 0.80 0.23
[0062] 本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。