Executive Secretary

21st International Symposium on Electrical Engineering "SIE 2025"

21st International Symposium on Electrical Engineering

SIE 2025

Development of a wind turbine control system using reinforcement learning
Set Favorite

Abstract

Abstract: Wind variability and limitations of traditional controllers (PID/MPC) reduce energy efficiency and increase mechanical wear in wind turbines, compromising their economic and operational viability. Objectives: Maximize energy generation through dynamic pitch/yaw adjustments; minimize structural loads to extend the lifespan of critical components. The Deep Deterministic Policy Gradient (DDPG) algorithm was implemented in Python/Gym, trained with historical wind data (2015-2022) from Santiago de Cuba. Validation used Python-MATLAB/Simulink co-simulation, comparing performance against PID and MPC controllers on a 5 MW turbine (IEC 61400-1 standard). DDPG increased annual energy production (AEP) by 15% and reduced mechanical loads (blade root DEL) by 20%. It outperformed standard controls in operational stability under turbulence (71% fewer fluctuations than ROSCO), demonstrating adaptability in untrained conditions (σ > 3.5 m/s). DDPG resolves the historical dichotomy between energy efficiency and structural preservation. Its multi-criteria reward function and industrial simulator integration represent significant advances for Deep Reinforcement Learning adoption in wind energy.


Resumen

La variabilidad eólica y las limitaciones de los controladores tradicionales (PID/MPC) reducen la eficiencia energética y aumentan el desgaste mecánico en turbinas eólicas, comprometiendo su viabilidad económica y operativa. El objetivo de esta investigacion es el desarrollo de un sistema de control de turbinas eolicas para maximizar la generación de energía mediante ajustes dinámicos de pitch/yaw; minimizar cargas estructurales para prolongar la vida útil de componentes críticos. Se implementó el algoritmo Deep Deterministic Policy Gradient (DDPG) en Python/Gym, entrenado con datos históricos de viento (2015-2022) de Santiago de Cuba. La validación empleó simulación híbrida Python-MATLAB/Simulink, comparando desempeño frente a PID y MPC en una turbina de 5 MW (Norma IEC 61400-1). El DDPG incrementó un 15% la generación energética anual (AEP) y redujo un 20% las cargas mecánicas (DEL en raíz de pala). Superó a controles estándar en estabilidad operativa bajo turbulencia (71% menos fluctuaciones que ROSCO), demostrando adaptabilidad en condiciones no entrenadas (σ > 3.5 m/s). El DDPG resuelve la dicotomía histórica entre eficiencia energética y preservación estructural. Su función de recompensa multicriterio e integración en simuladores industriales constituyen avances significativos para la adopción de Deep Reinforcement Learning en energía eólica.


About The Speaker

Jason Michel Martínez Calzadilla

Jason Michel Martínez Calzadilla

Universidad de Oriente Flag of Cuba

Discussion

Practical Info
No Presencial
Spanish / Español
October 24, 2025 10:45 AM
15 minutes
Salon 3
Authors
Jason Michel Martínez Calzadilla
Raciel David Lago Solano
Keywords
adaptive control; deep learning; wind energy; structural preservation; hybrid simulation; optimal policies.
control adaptativo; aprendizaje profundo; energía eólica; preservación estructural; simulación híbrida; políticas óptimas.
Documents