II Simposio Internacional sobre "Generación y Transferencia de Conocimiento para la Transformación Digital"  "SITIC2023" -I Taller Internacional de Tecnologías y Aplicaciones de Web Semántica en el entorno de Inteligencia Artificial de las Cosas

II Simposio Internacional sobre "Generación y Transferencia de Conocimiento para la Transformación Digital"

SITIC2023

Explicabilidad de un modelo de red neuronal para la predicción de generación de paneles solares.

Resumen

Problemática: Los modelos de IA actúan como "cajas negras" sin que se entiendan sus razonamientos. Surge así el campo XAI para volverlos interpretables y generar confianza en humanos.
Objetivo(s): Explicar un modelo de red neuronal para predicción de generación solar desarrollado en la UCLV.
Metodología: Enfoque de investigación aplicada. Se utiliza una red LSTM que combina capas convolucionales, entrenada con datos de 23 parques fotovoltaicos. Se aplican LIME y SHAP para interpretar el modelo.
Resultados y discusión: LIME permite explicaciones locales. Se adapta para trabajar con los tensores de entrada. Revela que la irradiancia es la variable más relevante. SHAP calcula contribuciones de cada variable; requirió aplanar tensores. Confirma importancia de la irradiancia.
Conclusiones: La irradiancia es la variable más decisiva en las predicciones. Su relevancia varía levemente por día, pero es la principal en general. Tmódulo tiene poco aporte. Se logra interpretar y explicar el modelo, cumpliendo con los objetivos de comprensibilidad.

Abstract

  • Problem: AI models act as "black boxes" without their reasoning being understood. Thus, the XAI field emerges to make them interpretable and generate trust in humans.
    Objective(s): Explain a neural network model for solar generation prediction developed at UCLV.
    Methodology: Applied research approach. An LSTM network is used that combines convolutional layers, trained with data from 23 photovoltaic parks. LIME and SHAP are applied to interpret the model.
    Results and discussion: LIME allows local explanations. Adapts to work with input turnbuckles. It reveals that irradiance is the most relevant variable. SHAP calculates contributions from each variable; required flattening tensioners. Confirms importance of irradiance.
    Conclusions: Irradiance is the most decisive variable in predictions. Its relevance varies slightly by day, but it is the main one in general. Tmódulo has little contribution. It is possible to interpret and explain the model, meeting the understandability objectives.

Sobre el ponente

Rosalís Amador García

Rosalís Amador García

UCLV Flag of Cuba

Discussion

Información Práctica
Ponencia
Spanish / Español
noviembre 16, 2023 11:20 a. m.
5 minutos
Salon SITIC 1
Autores
Rosalís Amador García
Ph. D. María Matilde García Lorenzo
Rafael E. Bello Pérez
Michel Álvarez Morales
Palabras clave
explainability; lime; shap; prediction; irradiance
explicabilidad; lime; shap; predicción; irradiancia
Documentos