基于循环神经网络和自编码器的DAS信号压缩方法

专利2025-11-17  1


本发明涉及一种das数据压缩方法,尤其涉及一种基于循环神经网络和自编码器的das信号压缩方法。


背景技术:

1、基于瑞利散射的分布式光纤声传感(das)技术利用光纤作为传感器,通过测量光纤中光信号的变化来获取环境参数的信息。在实际应用中,das技术凭借其高灵敏度、高空间分辨率、采样距离长、采样密度高、抗电磁干扰、抗恶劣环境等优点,为许多应用场景提供了一种极具潜力的解决方案,特别是在管道泄漏等长距离检测任务以及油气勘探等恶劣环境下的任务。

2、然而,由于das的采样频率高,导致das阵列采样到的记录量非常大,数十千米的光纤一天采样的记录量可达tb级别,这极大地限制了das技术在铁路安全检测和天然地震监测等领域的应用,das数据压缩方法应运而生。

3、现有的基于das数据的无损压缩方法有lempel-ziv-welc(lzw)、哈夫曼编码以及熵编码等,然而,无损压缩为了能完全重构出原信号,在压缩过程中保留了大量不影响数据质量的冗余信息,导致上述方法在das数据压缩过程中,无法提供大的压缩比,从而无法适应大规模das数据的压缩。

4、现有的基于das数据的有损压缩方法有基于变换的dwt与dct,以及基于神经网络的cae等。基于变换的dwt与dct方法在低压缩比时能提供较高的压缩质量,然而,随着压缩比的上升,其压缩质量显著降低,无法提供高压缩比,更重要的是,dwt与dct方法存在计算量大,压缩效率低等问题。基于cae的das数据压缩方法能够显著提升了压缩效率,然而,其压缩质量无法满足das数据对高信噪比的需求。

5、再结合das数据中信噪比较低的特点,如何保证较高信噪比的同时使用高压缩比对das数据进行压缩以便提高das数据的存储以及传输效率是目前亟待解决的问题。


技术实现思路

1、本发明的目的就在于提供一种解决上述问题,能有效地提高重构das信号的信噪比,且能提供高压缩比,能大大提高das信号的传输和存储效率的,基于循环神经网络和自编码器的das信号压缩方法。

2、为了实现上述目的,本发明采用的技术方案是这样的:一种基于循环神经网络和自编码器的das信号压缩方法,包括以下步骤;

3、(1)大量获取尺寸为(h,w)的das数据,构成数据集,所述h、w分别为das数据的通道数和长度;

4、(2)构造一das信号处理神经网络m0,包括压缩网络和解压网络;

5、所述压缩网络包括依次设置的第一二维卷积层、rnn组合、第二二维卷积层和量化函数层;

6、所述第一二维卷积层卷积核为3×3、步长为2、输入通道数为1,输出通道数为64,用于通过64个过滤器拾取das数据内的特征,输出尺寸为(h/2,w/2)的第一压缩特征;

7、所述rnn组合由多个rnn堆叠而成,rnn组合的输入通道数为64,输出通道数为512,用于依次对第一压缩特征进行特征提取,输出尺寸为(h/16,w/16)的第二压缩特征;

8、所述第二二维卷积层卷积核大小为1×1、步长为1、输入通道为512,输出通道为c,压缩比为512/c,用于输入第二压缩特征,输出尺寸为(h/16,w/16)第三压缩特征;

9、所述量化函数层用于将第三压缩特征转化为通道数为c的二进制比特流;

10、所述解压网络包括依次设置的第三二维卷积层、数个组合层、第四二维卷积层,每个组合层包括一rnn层,且rnn层输出端接上采样层;

11、所述第三二维卷积层卷积核为1×1、步长为1、输入通道数为c,输出通道数为512,用于输入二进制比特流,得到尺寸为(h/16,w/16)第一解压特征;

12、组合层中,rnn用于对上一层的输出进行特征提取,再由对应上采样层经pixelshuffle算法减少解码网络的通道数增加上一层的输出的尺寸,且最后一个组合层输出尺寸为(h,w)的第二解压特征;

13、所述第四二维卷积层卷积核为3×3、步长为1、输入通道数为32,输出通道数为1,用于输入第二解压特征,得到第三解压特征;

14、(3)预设训练轮次n、每轮迭代次数t、从数据集中选取m个das数据,按轮次训练m0得到das信号压缩模型m1,其中第n轮训练包括步骤(31)~(35),1≤n≤n;

15、(31)对第n轮第1次迭代,将m个das数据作为样本送入m0得到m个输出,计算每个样本在本次迭代的损失值,其中样本x本次迭代的损失值rt根据下式计算;

16、rt=|xt-rt-1|,2≤t≤t

17、rt-1=x,t=1

18、式中,t为第t次迭代,1≤t≤t,rt、rt-1分别为第t次、t-1次迭代的损失值;

19、(32)将m个上次迭代的损失值作为下次迭代的输入,按步骤(31)再次得到下次迭代的损失值,直至完成t次迭代,每个样本对应t次输出和t个损失值;

20、(33)对每个样本,叠加对应的t次输出作为其第n轮的das重构数据,叠加对应的t个损失值作为其第n轮的训练损失;

21、(34)计算第n轮总损失

22、式中,对第n轮第i个样本1≤i≤m,为的训练损失,为的额外损失,为的额外损失权重,λ为额外损失相对总损失的权重;

23、(35)用根据反向传播算法更新m0的网络参数;

24、(4)压缩时,获取待压缩的das数据,输入m1的压缩网络,经量化函数层后输出对应的二进制比特流,作为该待压缩的das数据的压缩数据;

25、(5)解压时,将压缩数据输入m1的解压网络,经第四二维卷积层输出第三解压特征,作为该待压缩的das数据的解压数据。

26、作为优选:所述压缩网络中,rnn组合包括第一rnn层、第二rnn层、第三rnn层;

27、第一rnn层采用lstm网络,输入通道数为64,输出通道数为256,lstm中隐藏单元的尺寸为(h/4,w/4);

28、第二rnn层采用lstm网络,输入通道数为256,输出通道数为512,lstm中隐藏单元的尺寸为(h/8,w/8);

29、第三rnn层采用lstm网络,输入通道数为512,输出通道数为512,lstm中隐藏单元的尺寸为(h/16,w/16)。

30、作为优选:所述量化函数层包括tanh激活函数层和二进制比特流输出层;

31、所述tanh激活函数层用于将第三压缩特征转换到[-1,1]内,得到对应的第四压缩特征;

32、所述二进制比特流输出层用于将第四压缩特征每个元素,按下式转化为二进制数,再逐行拼接,得到二进制比特流;

33、

34、式中,z为第四压缩特征中的一个元素,sign(z)为元素z对应的二进制数,prob为与第四压缩特征尺寸相同,值在[0,1]之间服从均匀分布的随机矩阵。

35、作为优选:所述解压网络包括四个组合层,依次为第一组合层到第四组合层;

36、第一组合层中,rnn层输入端连接第三二维维卷积层输出端,输入通道为512,输出通道为512,lstm中隐藏单元的尺寸为(h/16,w/16);上采样层输入通道为512,输出通道为128,输出的数据尺寸为(h/8,w/8);

37、第二组合层中,rnn层输入通道为128,输出通道为512,lstm中隐藏单元的尺寸为(h/8,w/8);上采样层输入通道为512,输出通道为128,输出的数据尺寸为(h/4,w/4);

38、第三组合层中,rnn层输入通道为128,输出通道为256,lstm中隐藏单元的尺寸为(h/4,w/4);上采样层输入通道为256,输出通道为64,输出的数据尺寸为(h/2,w/2);

39、第四组合层中,rnn层输入通道为64,输出通道为128,lstm中隐藏单元的尺寸为(h/2,w/2);上采样层输入通道为128,输出通道为32,输出的数据尺寸为(h,w)。

40、作为优选:步骤(31)中,所述m个输出为m个第三解压特征。

41、作为优选:步骤(34)中,为预设,或根据下式计算得到;

42、

43、式中,ln-1为第n-1轮训练时m个样本的训练损失的集合,min(ln-1)、max(ln-1)分别为ln-1中的最小值和最大值。

44、作为优选:所述数据集按8:1:1的比例划分为训练集、验证集和测试集,用于训练。

45、本发明提出了一种新的das信号压缩和解压的方法,在该方法中,建了一个新的das信号压缩模型,包括压缩网络和解压网络。

46、压缩网络包括依次设置的第一二维卷积层、rnn组合、第二二维卷积层和量化函数层;其中,第一二维卷积层主要目的是初步拾取特征,通过使用64个过滤器拾取多种不同的特征,同时压缩输入das数据的尺寸,去除数据中的部分冗余信息,使得输入rnn的信息更加精简,能够提高编码器的计算效率。rnn组合用多个堆叠的rnn提取das数据中的长期依赖来进一步压缩数据,本发明中,通过控制输出隐藏状态的维度来控制输出数据的通道数、尺寸等,达到一边不断降低隐藏状态的尺寸一边增加隐藏状态的通道数,将数据的特征表示逐步由单个通道转移至多个通道的目的。第二二维卷积层负责控制输入量化函数层的通道数,从而控制网络的压缩比,对本发明而言,第二二维卷积层的输入通道为512,输出通道为n,压缩比为512/n,也就是当n为64时,压缩比为8,n为32时,压缩比为16,压缩比最高可达512。量化函数层负责将输入数据转化为二进制比特流。

47、解压网络包括依次设置的第三二维卷积层、数个组合层、第四二维卷积层,第三二维卷积层作用是将经过量化器量化后带解码的特征表示的通道数恢复到量化前;每个组合层都采用rnn层后紧跟上采样层的组合方式,对每个组合层而言,其中的rnn层负责捕获与解码相关的关键信息,并通过控制隐藏单元的通道数将这些信息分布于指定的通道内,而其后的上采样层则是使用pixelshuffle技术,通过减少数据的通道数增加数据的尺寸,从而将多个通道内的信息进行融合,更加高效的利用了所有通道的信息。第四二维卷积层用于输出das重构数据。

48、本发明训练时,采用多轮、每轮多次迭代的方式,并考虑训练损失、额外损失等影响,从而调整网络参数。

49、现有技术相比,本发明的优点在于:与其他压缩方法比,本发明凭借rnn强大的时间序列处理能力以及长期依赖提取能力,在压缩阶段充分的提取出das信号之间的依赖关系,极大的降低了das信号中的冗余信息,从而能够提供较大的压缩比,其极限压缩比达到了512,相较于cae(100),dct(32)与dwt(64)有了极大的提升;同时,在解码阶段,使用pixelshuffle技术,充分利用了压缩特征表示中所有通道的信息,提高了信息使用效率,从而提供了更高的压缩质量。


技术特征:

1.一种基于循环神经网络和自编码器的das信号压缩方法,其特征在于:包括以下步骤;

2.根据权利要求1所述的基于循环神经网络和自编码器的das信号压缩方法,其特征在于:所述压缩网络中,rnn组合包括第一rnn层、第二rnn层、第三rnn层;

3.根据权利要求1所述的基于循环神经网络和自编码器的das信号压缩方法,其特征在于:所述量化函数层包括tanh激活函数层和二进制比特流输出层;

4.根据权利要求1所述的基于循环神经网络和自编码器的das信号压缩方法,其特征在于:所述解压网络包括四个组合层,依次为第一组合层到第四组合层;

5.根据权利要求1所述的基于循环神经网络和自编码器的das信号压缩方法,其特征在于:步骤(31)中,所述m个输出为m个第三解压特征。

6.根据权利要求1所述的基于循环神经网络和自编码器的das信号压缩方法,其特征在于:步骤(34)中,为预设,或根据下式计算得到;

7.根据权利要求1所述的基于循环神经网络和自编码器的das信号压缩方法,其特征在于:所述数据集按8:1:1的比例划分为训练集、验证集和测试集,用于训练。


技术总结
本发明公开了一种基于循环神经网络和自编码器的DAS信号压缩方法,包括获取DAS数据构成数据集;构造DAS信号处理神经网络,包括压缩网络和解压网络;压缩网络通过控制输出隐藏状态的维度来控制输出数据的通道数、尺寸等,将数据的特征表示逐步由单个通道转移至多个通道;解压网络用于重构出DAS重构数据。本发明训练时,采用多轮、每轮多次迭代的方式,并考虑训练损失、额外损失等影响,从而调整网络参数。本发明凭借RNN强大的时间序列处理能力以及长期依赖提取能力,在压缩阶段充分的提取出DAS信号之间的依赖关系,极大的降低了DAS信号中的冗余信息,从而能够提供较大的压缩比,且大大提高了DAS信号的传输和存储效率。

技术研发人员:王洪辉,阳习科,水乾锋,王翔,姚光乐,王琛,李瑞佳,虞先国
受保护的技术使用者:成都理工大学
技术研发日:
技术公布日:2024/6/26
转载请注明原文地址:https://doc.8miu.com/read-1825038.html

最新回复(0)