Executive Secretary

XXI Simposio Internacional de Ingeniería Eléctrica "SIE 2025"

XXI Simposio Internacional de Ingeniería Eléctrica

SIE 2025

Desarrollo de un sistema de control de turbinas eólicas mediante aprendizaje por refuerzo
Marcar como Favorito

Resumen

La variabilidad eólica y las limitaciones de los controladores tradicionales (PID/MPC) reducen la eficiencia energética y aumentan el desgaste mecánico en turbinas eólicas, comprometiendo su viabilidad económica y operativa. El objetivo de esta investigacion es el desarrollo de un sistema de control de turbinas eolicas para maximizar la generación de energía mediante ajustes dinámicos de pitch/yaw; minimizar cargas estructurales para prolongar la vida útil de componentes críticos. Se implementó el algoritmo Deep Deterministic Policy Gradient (DDPG) en Python/Gym, entrenado con datos históricos de viento (2015-2022) de Santiago de Cuba. La validación empleó simulación híbrida Python-MATLAB/Simulink, comparando desempeño frente a PID y MPC en una turbina de 5 MW (Norma IEC 61400-1). El DDPG incrementó un 15% la generación energética anual (AEP) y redujo un 20% las cargas mecánicas (DEL en raíz de pala). Superó a controles estándar en estabilidad operativa bajo turbulencia (71% menos fluctuaciones que ROSCO), demostrando adaptabilidad en condiciones no entrenadas (σ > 3.5 m/s). El DDPG resuelve la dicotomía histórica entre eficiencia energética y preservación estructural. Su función de recompensa multicriterio e integración en simuladores industriales constituyen avances significativos para la adopción de Deep Reinforcement Learning en energía eólica.


Abstract

Abstract: Wind variability and limitations of traditional controllers (PID/MPC) reduce energy efficiency and increase mechanical wear in wind turbines, compromising their economic and operational viability. Objectives: Maximize energy generation through dynamic pitch/yaw adjustments; minimize structural loads to extend the lifespan of critical components. The Deep Deterministic Policy Gradient (DDPG) algorithm was implemented in Python/Gym, trained with historical wind data (2015-2022) from Santiago de Cuba. Validation used Python-MATLAB/Simulink co-simulation, comparing performance against PID and MPC controllers on a 5 MW turbine (IEC 61400-1 standard). DDPG increased annual energy production (AEP) by 15% and reduced mechanical loads (blade root DEL) by 20%. It outperformed standard controls in operational stability under turbulence (71% fewer fluctuations than ROSCO), demonstrating adaptability in untrained conditions (σ > 3.5 m/s). DDPG resolves the historical dichotomy between energy efficiency and structural preservation. Its multi-criteria reward function and industrial simulator integration represent significant advances for Deep Reinforcement Learning adoption in wind energy.


Sobre el ponente

Jason Michel Martínez Calzadilla

Jason Michel Martínez Calzadilla

Universidad de Oriente Flag of Cuba

Discussion

Información Práctica
No Presencial
Spanish / Español
octubre 24, 2025 10:45 a. m.
15 minutos
Salon 3
Autores
Jason Michel Martínez Calzadilla
Raciel David Lago Solano
Palabras clave
adaptive control; deep learning; wind energy; structural preservation; hybrid simulation; optimal policies.
control adaptativo; aprendizaje profundo; energía eólica; preservación estructural; simulación híbrida; políticas óptimas.
Documentos