一种无功电压控制方法及系统与流程

专利2025-11-07  1


本发明涉及电力系统稳定控制,特别是关于一种无功电压控制方法及系统。


背景技术:

1、随着新能源的大规模并网和特高压直流线路的大规模投运,电力系统逐渐形成交直流混联大电网,电网拓扑变化频繁、工况日益复杂,功角失稳和电压失稳现象经常同时出现,为电力系统无功电压控制带来了新的挑战。传统的基于物理模型的方法难以适应当前复杂的电网,而基于传统深度学习模型的方法可解释性较差,对拓扑变化场景的泛化能力不足。

2、目前,主流无功电压控制(voltage var control,vvc)采用了基于物理模型的优化方法,核心在于利用风电场精确模型建立无功电压优化模型,并使用先进优化方法进行求解。

3、然而,这类方法很大程度上依赖于风电场的精确模型。由于建设速度快、运营人员与成本有限和环境频繁变化等因素,大量风电场缺少良好维护的模型。在此场景下,传统基于模型的优化方法难以适用。


技术实现思路

1、针对上述问题,本发明的目的是提供一种无功电压控制方法及系统,以提供一种能够分析电力系统运行环境信息,从中提取有效信息进行无功电压稳定控制决策,对于拓扑变化的场景具有较好的适应性的方案。

2、为实现上述目的,本发明采取以下技术方案:第一方面,提供一种无功电压控制方法,包括:

3、获取电力系统的运行数据;

4、当电力系统失稳时,采用graphsage网络,根据获取的运行数据,对电力系统进行特征提取,得到电力系统的当前状态空间;

5、采用控制策略模型,根据电力系统的当前状态空间,生成无功电压控制策略,其中,控制策略模型基于竞争双重dqn网络训练得到,无功电压控制策略为使电力系统恢复稳定的控制策略;

6、根据无功电压控制策略对电力系统进行控制。

7、进一步地,该方法还包括:

8、采用暂态稳定评估模型,根据电力系统的运行数据,确定电力系统的失稳状态,其中,暂态稳定评估模型基于图卷积聚合网络训练获得。

9、进一步地,所述竞争双重dqn网络的训练过程中,目标值的计算公式为:

10、

11、其中,为第t次选代的竞争双重dqn网络的目标值;r为奖励函数;γ∈(0,1),为折扣因子;q(st,at;θt)为在线网络的q值计算函数;θt为第t次选代的在线网络参数,at为第t次选代的控制动作,st为第t次选代的状态空间;为目标网络的q值计算函数;θt′为第t次选代的目标网络参数,u为控制动作的集合。

12、进一步地,所述q值计算函数为:

13、q(st,at)=v(st)+a(st,at)

14、其中,q(st,at)为预设网络的q值计算函数,预设网络为在线网络或目标网络;v(st)为状态价值;a(st,at)为动作优势。

15、进一步地,所述奖励函数的计算公式为:

16、

17、其中,n为电力系统节点数;vi为节点i的电压;vref为节点电压额定值;c1、c2为权重系数;tvsi∈{0,1}为暂态电压稳定实用判据的判断结果,tvsi=1表示暂态电压失稳,反之则为稳定;tsi为采取控制动作后电力系统的暂态稳定指数

18、进一步地,输入所述竞争双重dqn网络的状态空间为:

19、s={v,θ,p,q,f,a}

20、其中,s为状态空间;v,θ,p,q,f分别为所有节点的电压、相角、注入有功功率、注入无功功率和故障信息组成的向量,共同构成输入图神经网络的节点特征矩阵;a为邻接矩阵。

21、进一步地,所述竞争双重dqn网络输出的动作空间为:

22、ω={1,2,...,nω}

23、其中,ω为动作空间,动作空间内的动作为切机台数或切负荷比例,nω为切机切负荷动作总数。

24、第二方面,提供一种无功电压控制系统,包括:

25、数据获取模块,用于获取电力系统的运行数据;

26、失稳控制模块,用于当电力系统失稳时,采用graphsage网络,根据获取的运行数据,对电力系统进行特征提取,得到电力系统的当前状态空间;

27、采用控制策略模型,根据电力系统的当前状态空间,生成无功电压控制策略,其中,控制策略模型基于竞争双重dqn网络训练得到,无功电压控制策略为使电力系统恢复稳定的控制策略;

28、根据无功电压控制策略对电力系统进行控制。

29、第三方面,提供一种处理设备,包括计算机程序指令,其中,所述计算机程序指令被处理设备执行时用于实现上述无功电压控制方法对应的步骤。

30、第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时用于实现上述无功电压控制方法对应的步骤。

31、本发明由于采取以上技术方案,其具有以下优点:

32、1、本发明根据graphsage网络分析电力系统运行环境信息即电力系统的运行数据,对电力系统进行特征提取,然后根据提取得到的电力系统的当前状态空间利用控制策略模型生成无功电压控制策略,对于拓扑变化的场景具有较好的适应性。

33、2、本发明作为一种基于人工智能的无模型的数学驱动方法,摆脱了对精确参数的依赖。首先采用图神经网络提取了环境特征,不断调整自身参数;然后针对电压稳定控制任务设计了强化学习的状态空间、动作空间、奖励函数;接着结合暂态稳定分析,构建了基于深度图强化学习的无功电压稳定控制策略框架;最后通过仿真分析验证了该方法在拓扑变化场景下的有效性。相较于传统的基于物理模型和电网仿真计算的控制方法,无功电压控制策略具有以下几个方面的优势。

34、3、本发明应用深度强化学习直接分析电网运行环境信息,从中提取有效信息并构建强化学习模型,直接得到无功电压控制策略,从而避免了由于传统方法中模型简化和不确定性因素对电网控制效果的影响。

35、4、电力系统是一个典型的时滞动力系统,暂态稳定无功电压控制需要考虑系统的实滞不确定性影响和系统未来的运行状态。本发明求取的无功电压控制策略能够使系统恢复稳定运行,能有效实现在线应用时的快速准确控制。

36、5、对于电力系统拓扑变化的场景,本发明在一定程度上能够适应系统拓扑变化,具有一定的泛化能力,且决策结果具有正确性。

37、综上所述,本发明可以广泛应用于电力系统稳定控制技术领域中。



技术特征:

1.一种无功电压控制方法,其特征在于,包括:

2.如权利要求1所述的一种无功电压控制方法,其特征在于,该方法还包括:

3.如权利要求1所述的一种无功电压控制方法,其特征在于,所述竞争双重dqn网络的训练过程中,目标值的计算公式为:

4.如权利要求3所述的一种无功电压控制方法,其特征在于,所述q值计算函数为:

5.如权利要求3所述的一种无功电压控制方法,其特征在于,所述奖励函数的计算公式为:

6.如权利要求1所述的一种无功电压控制方法,其特征在于,输入所述竞争双重dqn网络的状态空间为:

7.如权利要求6所述的一种无功电压控制方法,其特征在于,所述竞争双重dqn网络输出的动作空间为:

8.一种无功电压控制系统,其特征在于,包括:

9.一种处理设备,其特征在于,包括计算机程序指令,其中,所述计算机程序指令被处理设备执行时用于实现权利要求1-7中任一项所述的无功电压控制方法对应的步骤。

10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时用于实现权利要求1-7中任一项所述的无功电压控制方法对应的步骤。


技术总结
本发明涉及一种无功电压控制方法及系统,其特征在于,包括:获取电力系统的运行数据;当电力系统失稳时,采用GraphSAGE网络(Graph Sample and aggregate,图神经网络),根据获取的运行数据,对电力系统进行特征提取,得到电力系统的当前状态空间;采用控制策略模型,根据电力系统的当前状态空间,生成无功电压控制策略,其中,控制策略模型基于竞争双重DQN网络(Double Deep Q Network,双重深度Q网络)训练得到,无功电压控制策略为使电力系统恢复稳定的控制策略;根据无功电压控制策略对电力系统进行控制,本发明可以广泛应用于电力系统稳定控制技术领域中。

技术研发人员:孙珂,王丹,冯沛儒,潘怡,梁涵卿,刘栋,薛雅玮,庄侃沁,张柯欣,陶太堃,王绪利,徐加银,游沛羽,朱刘柱,陈天一,王博,王峥,李坤,牟善科,乔立
受保护的技术使用者:国网经济技术研究院有限公司
技术研发日:
技术公布日:2024/6/26
转载请注明原文地址:https://doc.8miu.com/read-1824586.html

最新回复(0)