50G-PON网络中基于神经网络预测的上行带宽分配方法与流程

专利2022-05-09  99


本发明涉及光接入网通信技术领域,更具体的,涉及一种50g-pon网络中基于神经网络预测的上行带宽分配方法。



背景技术:

pon网络系统是目前使用最广泛的网络结构之一,是解决光纤通信中“最后一公里”的最佳方案。其结构是点对多点的树状结构,一个光线路终端(olt)与多个光网络单元(onu)相连接。在其上行通信中,多个onu共享一条上传通路,这就需要对上行通路进行合理的分配,防止各个onu传输信息时产生冲突。带宽分配算法可以分为静态带宽分配和动态带宽分配。静态带宽分配算法是为每个onu提前分配好固定带宽,这种算法对于轻负载onu会造成带宽浪费,而对于重负载的onu又会造成较大的延迟。目前,带宽分配算法主要以动态带宽分配算法(dba)为主进行研究。ipact是经典的带宽分配算法,该算法会将所有onu的带宽信息收集起来,从全局进行带宽分配,保证了公平性和较低的延迟。

根据ieee802.3ca的最新标准,50g-pon网络根据不同的下传速率/上传速率分为三类:50g/10g,50g/25g和50g/50g。对于前两类,下传波长和上传波长均为一条波长;而对于第三种,下传波长和上传波长均有两条速率为25g的波长组成。而之前的dba算法都是针对旧标准研究制定的,因此需要一种新的dba算法来满足该网络的需求。

传统的离线带宽分配方式,需要将所有的onu的带宽信息收集起来,统一进行分配调度;这种方式会导致从onu发送带宽请求信息到实际发送数据有较长的时间间隔,而这段时间内新增加的数据不能及时发送,需要等待下一周期的调度安排,造成了延迟,虽然已经有一些方法来解决这些问题,但是这些方法都是基于线性模型,对于网络流量这种非线性特征十分明显的模型效果较差,表现在不能准确预测出流量的突变。

公开号为cn110213679a的中国发明专利申请于2019年9月6日公开了一种无源光网络系统及其实现方法,包括:光线路终端olt确定一固定值t,依据pon系统所承载业务的特性为光网络单元onu分配带宽,且任意相邻两个带宽之间的间隔不超过所述固定值t;该方法虽然使带宽分配不再依赖于onu的带宽请求或者olt对onu流量的监控,缩短了onu发送数据的延迟,但其对于传输延迟缩短的时间十分有限,不适用于ieee802.3ca的最新标准。



技术实现要素:

本发明为克服现有的带宽分配方式在适用ieee802.3ca的最新标准的过程中,存在明显传输延迟的技术缺陷,提供一种50g-pon网络中基于神经网络预测的上行带宽分配方法。

为解决上述技术问题,本发明的技术方案如下:

50g-pon网络中基于神经网络预测的上行带宽分配方法,包括以下步骤:

s1:采集相关网络数据,构建并lstm神经网络;

s2:所有光网络单元,即onu向光线路终端,即olt发送报告消息,报告队列长度;

s3:olt根据报告消息,对onu的业务进行优先级划分,并依据往返时延,即rtt对所有onu和报告队列长度进行排序;

s4:根据排序结果和lstm神经网络对所有业务进行分配;首先分配高优先级业务,不限制其带宽大小,保证所有数据的及时转发;接着分配低优先级业务,需要限制授权带宽大小,防止轮询周期过长;

s5:对于最后一个onu的低优先级业务进行计算,保证每个onu与olt上传宽带的两条波长在该轮询周期内的结束时间相同,结束分配过程,得到分配结果;

s6:olt将分配结果进行打包并发布给所有onu;

s7:各个onu根据收到的分配结果依次发送信息。

上述方案中,本方案对于50g-pon网络的新标准及特点,提出了一种基于神经网络预测的dba方法,采取神经网络预测的方式,确保了数据可以及时的转发,有效降低了传输延迟;同时,本方案考虑了不同业务对带宽大小和延迟需求的特点,对传输顺序进行合理的分配,保证了网络服务质量。

其中,在所述步骤s1中,所述lstm神经网络用于预测当前onu的网络流量速率,其输入为提前采集好的网络流量速率。

上述方案中,所述lstm神经网络为常用的神经网络,其通过对提前采集好的网络流量速率进行训练,可以输出一个当前时间内某个onu的网络流量速率,实现网络流量速率的预测。

其中,在所述步骤s3中,所述业务包括ef业务、af业务和be业务;所述优先级划分具体为:将ef业务划分为高优先级业务,将af业务和be业务划分为低优先级业务。

其中,在所述步骤s3中,依据rtt对onu进行排序,从第三个onu开始,依据队列长度进行升序排序,并将得到的序列作为调度顺序。

其中,在所述步骤s4中,分配高优先级业务过程具体为:

sa1:基于lstm神经网络预测的网络流量速率及等待时间计算到达的高优先级业务大小,计算传输报告数据及预测该报告数据所需的带宽;

sa2:根据调度顺序及预测的带宽,对于第i个onu,分配当前最早可传输的波长进行传输,若两个波长都可传输,则选择第一个波长;

sa3:更新各波长可传输数据的时间,返回执行步骤sa1,直至所有onu的高优先级业务分配完毕。

其中,在所述步骤s4中,分配低优先级业务过程具体为:

sb1:基于lstm神经网络预测的网络流量速率及等待时间计算到达的低优先级业务大小,计算传输报告数据及预测该报告数据所需的带宽;

sb2:对于第i个onu,取当前最早可传输的波长进行传输,若两个波长都可传输,则选择第一个波长,将所需的带宽与该波长的最大可分配带宽比较,如果所需的带宽大于最大可分配带宽,则将最大可分配带宽作为该onu的带宽;

sb3:更新各波长可传输数据的时间,返回执行步骤sb1,直至所有onu的低优先级业务分配完毕。

其中,所述步骤s5具体为:

s51:基于lstm神经网络计算最后一个onu的低优先级业务的传输报告数据及预测该报告数据所需的带宽;

s52:将所需的带宽与最大可分配带宽进行比较,如果所需的带宽大于最大可分配带宽,则将最大可分配带宽作为该onu的带宽;

s53:将该带宽部署在最早可传输的波长上;

s54:比较两条波长在该轮询周期内的结束时间;若结束时间相同,则结束分配;否则,则撤回步骤s53,将这部分带宽分开部署在两个波长上,使两条波长在该轮询周期内的结束时间相同。

上述方案中,通过步骤s5的操作,可以在分配带宽时,保证两条波长的充分利用。

其中,在所述步骤s6中,所述分配结果包括各个onu的授权时间和授权波长。

其中,在所述步骤s6中,olt将分配结果打包在gate帧中,以广播的形式发布给所有onu。

其中,在所述步骤s7中,在发送完低优先级业务消息后,将当前队列中缓存的长度报告给olt,以作为下一次分配依据。

与现有技术相比,本发明技术方案的有益效果是:

本发明基于50g-pon网络的新标准及特点,提供一种50g-pon网络中基于神经网络预测的上行带宽分配方法,采取神经网络预测的方式,确保了数据可以及时的转发,有效降低了传输延迟;同时,本方案考虑了不同业务对带宽大小和延迟需求的特点,对传输顺序进行合理的分配,保证了网络服务质量。

附图说明

图1为本发明所述方法流程示意图;

图2为本发明一实施例中方法流程示意图;

图3为本发明一实施例中每个轮询周期内onu与olt发送数据的时序图;

图4为本发明一实施例中dba算法实施后两条上传波长的带宽分布情况。

具体实施方式

附图仅用于示例性说明,不能理解为对本专利的限制;

为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;

对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。

下面结合附图和实施例对本发明的技术方案做进一步的说明。

实施例1

如图1所示,50g-pon网络中基于神经网络预测的上行带宽分配方法,包括以下步骤:

s1:采集相关网络数据,构建并训练lstm神经网络;

s2:所有光网络单元,即onu向光线路终端,即olt发送报告消息,报告队列长度;

s3:olt根据报告消息,对onu的业务进行优先级划分,并依据往返时延,即rtt对所有onu和报告队列长度进行排序;

s4:根据排序结果和lstm神经网络对所有业务进行分配;首先分配高优先级业务,不限制其带宽大小,保证所有数据的及时转发;接着分配低优先级业务,需要限制授权带宽大小,防止轮询周期过长;

s5:对于最后一个onu的低优先级业务进行计算,保证每个onu与olt上传宽带的两条波长在该轮询周期内的结束时间相同,结束分配过程,得到分配结果;

s6:olt将分配结果进行打包并发布给所有onu;

s7:各个onu根据收到的分配结果依次发送信息。

更具体的,在所述步骤s1中,所述lstm神经网络用于预测当前onu的网络流量速率,其输入为提前采集好的网络流量速率。

在具体实施过程中,所述lstm神经网络为常用的神经网络,其通过对提前采集好的网络流量速率进行训练,可以输出一个当前时间内某个onu的网络流量速率,实现网络流量速率的预测。

更具体的,在所述步骤s3中,所述业务包括ef业务、af业务和be业务;所述优先级划分具体为:将ef业务划分为高优先级业务,将af业务和be业务划分为低优先级业务。

更具体的,在所述步骤s3中,依据rtt对onu进行排序,从第三个onu开始,依据队列长度进行升序排序,并将得到的序列作为调度顺序。

更具体的,在所述步骤s4中,分配高优先级业务过程具体为:

sa1:基于lstm神经网络预测的网络流量速率及等待时间计算到达的高优先级业务大小,计算传输报告数据及预测该报告数据所需的带宽;

sa2:根据调度顺序及预测的带宽,对于第i个onu,分配当前最早可传输的波长进行传输,若两个波长都可传输,则选择第一个波长;

sa3:更新各波长可传输数据的时间,返回执行步骤sa1,直至所有onu的高优先级业务分配完毕。

更具体的,在所述步骤s4中,分配低优先级业务过程具体为:

sb1:基于lstm神经网络预测的网络流量速率及等待时间计算到达的低优先级业务大小,计算传输报告数据及预测该报告数据所需的带宽;

sb2:对于第i个onu,取当前最早可传输的波长进行传输,若两个波长都可传输,则选择第一个波长,将所需的带宽与该波长的最大可分配带宽比较,如果所需的带宽大于最大可分配带宽,则将最大可分配带宽作为该onu的带宽;

sb3:更新各波长可传输数据的时间,返回执行步骤sb1,直至所有onu的低优先级业务分配完毕。

更具体的,所述步骤s5具体为:

s51:基于lstm神经网络计算最后一个onu的低优先级业务的传输报告数据及预测该报告数据所需的带宽;

s52:将所需的带宽与最大可分配带宽进行比较,如果所需的带宽大于最大可分配带宽,则将最大可分配带宽作为该onu的带宽;

s53:将该带宽部署在最早可传输的波长上;

s54:比较两条波长在该轮询周期内的结束时间;若结束时间相同,则结束分配;否则,则撤回步骤s53,将这部分带宽分开部署在两个波长上,使两条波长在该轮询周期内的结束时间相同。

在具体实施过程中,通过步骤s5的操作,可以在分配带宽时,保证两条波长的充分利用。

更具体的,在所述步骤s6中,所述分配结果包括各个onu的授权时间和授权波长。

更具体的,在所述步骤s6中,olt将分配结果打包在gate帧中,以广播的形式发布给所有onu。

更具体的,在所述步骤s7中,在发送完低优先级业务消息后,将当前队列中缓存的长度报告给olt,以作为下一次分配依据。

在具体实施过程中,本方案对于50g-pon网络的新标准及特点,提出了一种基于神经网络预测的dba方法,采取神经网络预测的方式,确保了数据可以及时的转发,有效降低了传输延迟;同时,本方案考虑了不同业务对带宽大小和延迟需求的特点,对传输顺序进行合理的分配,保证了网络服务质量。

实施例2

更具体的,在实施例1的基础上,针对ieee802.3ca新标准中对50g-pon网络的说明,之前大部分的dba算法并不能很好的适用于该网络,如图2所示流程图,本方案实施例提供了一种基于神经网络预测的上行带宽分配方法,同时还支持网络业务分级,提供网络质量保证。

在具体实施过程中,网络中的业务一般可分为三类,加速转发型ef,确保转发型af和尽力而为型be。ef业务需要稳定的带宽和较低的延迟,af业务需要稳定的带宽,对延迟要求不高,be业务对带宽和延迟要求都不高。本方法中,将ef业务划分为高优先级业务,af和be业务划分为低优先级业务。

为了方便描述,本方法中涉及到的参数定义如下表所示:

首先,通过之前对网络流量数据的采集,训练lstm神经网络,将该神经网络部署到系统中;接着,所有的onu依次发送report消息到olt,其中包括当前缓存队列中高优先级业务和低优先级业务的数据大小;第三,olt根据onu的rrt和请求的带宽大小对onu的调度顺序进行排序。首先,挑选出rrt最小的两个onu最先调度;然后,将剩余的onu根据请求的带宽大小按照升序进行排列;第四,按照调度顺序,首先依次分配所有onu的高优先级业务:

(1)对于第i个onu,取当前最早可传输的波长(如果两个波长都可传输,则选择第一个波长),令

(2)将请求的带宽大小及之前的历史数据作为神经网络的输入,计算出从onu发送report信息到onu实际发送数据这段时间内新增的数据:

(3)计算传输报告数据及预测数据所需的时间:

(4)更新波长可传输数据的时间:

最后一个onu之外,其余onu低优先级业务调度方式均按上述步骤执行;对于最后一个onu的低优先级业务,采取以下步骤:

(1)首先,将剩余队列分配到最早可传输的波长上;

(2)比较两个波长结束时间的大小:如果结束时间相同,则结束分配;如不相同,则进行下一步;

(3)已知剩余最后一个onu的队列所需的发送时间长度为假设两个值t1和t2,求解以下方程组:

求解出t1和t2,表示将onu剩余队列按照这样的比例分配个两个波长;接着,将各个onu的授权时间和授权波长打包在gate帧中,以广播的形式发布给onu;最后,各个onu收到gate帧后,根据分配的发送窗口,依次发送信息。其中,在发送完低优先级业务消息之后,将当前队列中缓存的长度报告给olt,以作为下一次分配的依据。

如图3所示,表示了每个轮询周期内onu与olt发送数据的时序图,相邻的轮询周期以olt收到所有的report消息作为分界线;在每个轮询周期内,首先由olt实行dba算法,然后发送gate消息,以广播的形式发送给所有的onu;

onu收到授权信息后,首先发送高优先级业务,然乎发送低优先级业务,最后将目前缓存中的数据大小封装在report消息中,发送给olt;

图4表示了每次dba算法实施后,两条上传波长上带宽分布情况。

在具体实施过程中,本方案提出一种上行带宽分配方法,针对50g-pon网络的特点,合理利用两条上传波长,并通过神经网络预测的方式降低网络的传输延时;同时,考虑到网络中不同业务的实际需求,保证了网络服务质量。

显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。


技术特征:

1.50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,包括以下步骤:

s1:采集相关网络数据,构建并训练lstm神经网络;

s2:所有光网络单元,即onu向光线路终端,即olt发送报告消息,报告队列长度;

s3:olt根据报告消息,对onu的业务进行优先级划分,并依据往返时延,即rtt对所有onu和报告队列长度进行排序;

s4:根据排序结果和lstm神经网络对所有业务进行分配;首先分配高优先级业务,不限制其带宽大小,保证所有数据的及时转发;接着分配低优先级业务,需要限制授权带宽大小,防止轮询周期过长;

s5:对于最后一个onu的低优先级业务进行计算,保证每个onu与olt上传宽带的两条波长在该轮询周期内的结束时间相同,结束分配过程,得到分配结果;

s6:olt将分配结果进行打包并发布给所有onu;

s7:各个onu根据收到的分配结果依次发送信息。

2.根据权利要求1所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,在所述步骤s1中,所述lstm神经网络用于预测当前onu的网络流量速率,其输入为提前采集好的网络流量速率。

3.根据权利要求1所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,在所述步骤s3中,所述业务包括ef业务、af业务和be业务;所述优先级划分具体为:将ef业务划分为高优先级业务,将af业务和be业务划分为低优先级业务。

4.根据权利要求1所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,在所述步骤s3中,依据rtt对onu进行排序,从第三个onu开始,依据队列长度进行升序排序,并将得到的序列作为调度顺序。

5.根据权利要求4所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,在所述步骤s4中,分配高优先级业务过程具体为:

sa1:基于lstm神经网络预测的网络流量速率及等待时间计算到达的高优先级业务大小,计算传输报告数据及预测该报告数据所需的带宽;

sa2:根据调度顺序及预测的带宽,对于第i个onu,分配当前最早可传输的波长进行传输,若两个波长都可传输,则选择第一个波长;

sa3:更新各波长可传输数据的时间,返回执行步骤sa1,直至所有onu的高优先级业务分配完毕。

6.根据权利要求5所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,在所述步骤s4中,分配低优先级业务过程具体为:

sb1:基于lstm神经网络预测的网络流量速率及等待时间计算到达的低优先级业务大小,计算传输报告数据及预测该报告数据所需的带宽;

sb2:对于第i个onu,取当前最早可传输的波长进行传输,若两个波长都可传输,则选择第一个波长,将所需的带宽与该波长的最大可分配带宽比较,如果所需的带宽大于最大可分配带宽,则将最大可分配带宽作为该onu的带宽;

sb3:更新各波长可传输数据的时间,返回执行步骤sb1,直至所有onu的低优先级业务分配完毕。

7.根据权利要求6所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,所述步骤s5具体为:

s51:基于lstm神经网络计算最后一个onu的低优先级业务的传输报告数据及预测该报告数据所需的带宽;

s52:将所需的带宽与最大可分配带宽进行比较,如果所需的带宽大于最大可分配带宽,则将最大可分配带宽作为该onu的带宽;

s53:将该带宽部署在最早可传输的波长上;

s54:比较两条波长在该轮询周期内的结束时间;若结束时间相同,则结束分配;否则,则撤回步骤s53,将这部分带宽分开部署在两个波长上,使两条波长在该轮询周期内的结束时间相同。

8.根据权利要求1所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,在所述步骤s6中,所述分配结果包括各个onu的授权时间和授权波长。

9.根据权利要求1所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,在所述步骤s6中,olt将分配结果打包在gate帧中,以广播的形式发布给所有onu。

10.根据权利要求1所述的50g-pon网络中基于神经网络预测的上行带宽分配方法,其特征在于,在所述步骤s7中,在发送完低优先级业务消息后,将当前队列中缓存的长度报告给olt,以作为下一次分配依据。

技术总结
本发明提供一种50G‑PON网络中基于神经网络预测的上行带宽分配方法,包括:训练LSTM神经网络;所有ONU向OLT发送报告消息,报告队列长度;OLT根据报告消息对ONU的业务进行优先级划分,并依据RTT对所有ONU和报告队列长度进行排序;根据排序结果和LSTM神经网络对所有业务进行分配;对于最后一个ONU的低优先级业务进行计算分配,保证在该轮询周期内的结束时间相同,得到分配结果;OLT将分配结果进行打包并发布给所有ONU;各个ONU根据收到的分配结果依次发送信息。该上行带宽分配方法采取神经网络预测的方式,确保了数据可以及时的转发,有效降低了传输延迟;同时,本方案考虑了不同业务对带宽大小和延迟需求的特点,对传输顺序进行合理的分配,保证了网络服务质量。

技术研发人员:许鸥;朱祥;秦玉文;陈哲;梁嘉琪
受保护的技术使用者:广东工业大学
技术研发日:2021.03.15
技术公布日:2021.08.03

转载请注明原文地址:https://doc.8miu.com/read-1629.html

最新回复(0)