首页 / 一种融合时序分解与深度学习的卫星短期钟差预报方法

一种融合时序分解与深度学习的卫星短期钟差预报方法公开 发明

技术领域

[0001] 本发明属于卫星钟差预报技术领域,涉及一种融合时序分解与深度学习的卫星短期钟差预报方法。

相关背景技术

[0002] 卫星钟差预报是卫星导航系统中的关键技术之一,精确的钟差预报直接影响到导航定位的精度。卫星钟差是卫星时钟与参考时钟之间的时间偏差,受多种复杂因素的影响,如卫星时钟的漂移、轨道环境的扰动以及系统内部噪声等。随着导航应用对定位精度要求的不断提升,如何实现高精度的卫星钟差短期预报成为导航系统中的一个重要研究课题。
[0003] 传统的卫星钟差预报方法主要依赖于物理模型和统计模型,如基于卡尔曼滤波、ARMA(自回归滑动平均模型)等方法。然而,这些方法在应对复杂的时序特性和多重噪声时表现出一定的局限性,尤其是在处理长时依赖关系、非线性变化和非平稳序列时,预报精度往往无法满足高精度导航系统的需求。此外,卫星钟差数据中常包含趋势性、周期性以及随机波动等多种复杂成分,传统方法难以有效区分和提取这些不同特征的时间序列成分,进而导致预报结果的偏差。
[0004] 近年来,随着人工智能技术的快速发展,特别是深度学习技术在时序数据处理领域的突破性进展,为卫星钟差预报提供了新的解决思路。深度学习模型,尤其是Transformer、长短时记忆网络(LSTM)等,具备强大的时间序列建模能力,能够捕捉数据中的长短期依赖关系和非线性特征。然而,单纯依赖深度学习模型直接对原始钟差数据进行建模,可能会面临数据噪声、复杂时序特征干扰等问题,导致模型性能的下降。因此,将传统的时序分解方法与深度学习技术相结合,利用时序分解方法提取数据中的趋势、周期和随机等成分分量,再分别采用深度学习模型进行建模与预测,能够在保留数据时序特征的同时,提升卫星钟差预报的精度和鲁棒性。

具体实施方式

[0047] 以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
[0048] 其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0049] 本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
[0050] 本发明所构建的一种融合时序分解与深度学习的卫星短期钟差预报方法流程图如图1所示。通过信号分解技术与深度学习模型的结合,本发明提供了一种融合时序分解与深度学习的卫星短期钟差预报方法,该方法能够有效提取卫星钟差数据中的多层次时序特征,显著提升预报精度和预报稳定性,具体包括以下步骤:
[0051] 步骤1、对原始钟差数据进行一次差分,并对差分后的数据采用拉伊达准则筛除异常值,如图2所示,并利用线性插值法对异常值筛除处进行填补,得到待分解的钟差一次差数据。
[0052] 具体来说,对于原始钟差数据进行一次差后的序列x(t),计算其均值μ和标准差σ,利用三倍标准差原则,设置异常值判定阈值τ=3σ,若|x(t)‑μ|>τ,则该时间点的钟差值为异常值,假设该时间点为ti,对应一次差序列值为x(ti),则用相邻两个正常数据点x(ti‑1)和x(ti+1)按照以下公式进行估计与填补,其中 为填补值:
[0053]
[0054] 步骤2、为提取钟差数据波动特征,利用CEEMDAN算法对上述数据进行分解,得到多个模态分量和残余分量,其中残余分量不可再分解,可直接视为趋势项,如图3中IMF9所示。
[0055] 具体来说,步骤2可分为以下三个具体步骤:
[0056] 步骤2.1、向步骤1中的待分解钟差序列x(t)中添加一组均值之和为0的白噪声ε(t),则添加第q组白噪声后的序列为:
[0057] xq(t)=x(t)+εq(t),q=1,2,…,N
[0058] 步骤2.2、对xq(t)进行经验模态分解(EMD)分解,对N组分解后的信号IMF1q(t)采用算术平均得到一阶本征模态分量IMF1(t),表达为:
[0059]
[0060] x(t)去除一阶本征模态分量后的残余分量rs1(t)可表示为:
[0061] rs1(t)=x(t)‑IMF1(t)
[0062] 继续向残余分量中加入均值之和为0的白噪声,则第二个模态分量IMF2(t)可表示为:
[0063]
[0064] 第二次EMD分解后的残余分量rs2(t)可表示为:
[0065] rs2(t)=rs1(t)‑IMF2(t)
[0066] 步骤2.3、循环上述步骤,直到残余分量rsK(t)不可再通过EMD分解,则CEEMDAN所有步骤结束,此时所得模态分量数量为K,则x(t)经CEEMDAN分解后的信号可表示为:
[0067]
[0068] CEEMDAN算法分解完毕后的残余分量不可再分解,表示残余分量已经趋于相对稳定,此时残余分量rsK(t)视为钟差序列的趋势项X(t)trend。
[0069] 步骤3、利用排列熵算法对上述多个模态分量进行复杂度排序,接着采用t检验方法对周期分量和随机分量进行划分,重构得到趋势项、周期项和残差项。其中随机分量叠加成为随机项、周期分量叠加作为周期项、排列熵值显著低于周期分量的视为趋势项,如图4所示。
[0070] 排列熵(Permutation Entropy,PE)算法是一种衡量时间序列复杂度和不规则性的方法。熵值越大,时间序列的复杂度越高。在计算重构子序列之间的复杂程度时,排列熵算法相较于模糊熵等算法引入了排列的思想,其具体步骤如下:
[0071] 1.对上述分解完成为的K个模态分量进行嵌入维度为M的相空间重构,每个模态分量的长度为S,经相空间重构后的子序列数量为L,那么每个模态分量的子序列生成的空间矩阵Aq可表示为:
[0072]
[0073] 其中t为重构过程中的时间延迟,N为模态分量的序列长度,L=S‑(M‑1)t≤M![0074] 2.将K个模态分量的重构矩阵中的子序列中各元素按升序排列,所得排序后各元素的索引构成一组符号序列aL,则可表示为:
[0075]
[0076] 3.M维的相空间按照上述索引值进行全排列会得到M!个符号序列,接着统计L个重构分量对应的每种排列在M!全排列中出现的次数NUMk,则该重构分量出现概率Pl为:
[0077]
[0078] 4.利用出现概率计算的排列熵:
[0079]
[0080] 当所有重构分量出现概率相等时,排列熵值最大,记为PEmax,则归一化后的排列熵为:
[0081]
[0082] 根据熵的定义,模态分类排列熵越大,代表信号的复杂度越高,反之则信号的复杂度越小。
[0083] 利用排列熵算法能够量化分解信号的复杂度,但分解信号的频域特征仍不明显,因此在进行后续预测时预测结果缺乏可解释性。为了解决以上问题,本文引入一种t检验方法对各特征分量进行分析并归类。
[0084] t检验算法是一种用于分析数据中多组之间是否存在显著差异的统计方法,一般适用于样本数量较小的数据。在EMD分解中,IMF分量的上、下包络线关于相对于横坐标轴局部对称,而上下包络线是由多个信号峰值点连接而成。对于IMF中的随机分量来说,由于其变化剧烈,峰值点数量较多,其IMF分量数据基本对称,数据均值趋于0。反之,对于周期IMF分量来说,由于其变化平稳,峰值点数量较少,包络线变化较平滑,这使得其IMF分量数据与横坐标轴并不对称,则数据均值不趋近与0。
[0085] CEEMDAN算法分解完毕后的残余分量不可再分解,该残余分量rsK(t)为钟差序列的趋势项X(t)trend。经排列熵算法处理后的各模态分量按照熵减的原则排列,假设周期分量从第i个模态分量开始,则只需从第一项开始,对前i‑1项分量与第i项分量做t检验,当t检验统计量显著区别于0时作为随机项和周期项区分的临界条件。t检验算法公式如下:
[0086]
[0087] 其中 为前i个指标的熵均值,σi为前i个模态分量的熵标准差,n为i的样本容量,设检验统计量t在μ=0时服从自由度为n的t分布。当t检验统计量显著区别于0时,前i‑1个模态分量识别为随机分量,从i项开始的剩余模态分量识别周期分量,则原始序列的随机项X(t)residual视为分解信号中随机分量之和,周期分量之和视为周期项X(t)period,至此所有特征分量重构完毕。
[0088] 步骤4、将趋势项、周期项和残差项以通道独立的形式输入Transformer模型中进行训练并预测,最后得到各项一次差预测结果。
[0089] 将趋势项、周期项、随机项作为三条独立的输入通道,构成模型的多通道输入格式。对于每一个时间步,构造一个三维输入向量,则输入矩阵形状为[batch_size,sequence_length,3],其中3对应于三个通道(趋势、周期、随机)。在Transformer中,主要有四个结构,分别是输入嵌入层(Input Embedding)、位置编码层(Positional Encoding)、多头自注意力机制层(Multi‑Head Self‑Attention)和前馈网络层(Feed‑Forward 
Network),通过输入形状为[batch_size,sequence_length,embedding_dim],其中
embedding_dim是趋势、周期和随机项的维度扩展。每个时间步的输入由三项构成,并通过嵌入和位置编码进行处理。通过训练完毕的Transformer模型对未来时间步进行预测,得到每个输入通道(趋势、周期、随机)预报时间段的一次差预测结果 和
[0090] 步骤5、叠加各项一次差预测结果,并对叠加后的一次差预测结果进行反差分,得到最终钟差预报结果。
[0091] 假设预报时间段内趋势项第一个一次差预测结果为 周期项第一个一次差预测结果为 随机项第一个一次差预测结果为 那么需要预报的第一个历元的钟差
一次差结果为:
[0092]
[0093] 假设训练集中最后一个历史钟差数据为Chistory(end),那么第一个预测历元的预测钟差Cpredict(1)为:
[0094]
[0095] 以此类推,得到后续所需所有的预报钟差值。
[0096] 最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

当前第1页 第1页 第2页 第3页