II Simposio Internacional sobre "Generación y Transferencia de Conocimiento para la Transformación Digital"  "SITIC2023" -I Taller Internacional de Tecnologías y Aplicaciones de Web Semántica en el entorno de Inteligencia Artificial de las Cosas

II Simposio Internacional sobre "Generación y Transferencia de Conocimiento para la Transformación Digital"

SITIC2023

Defensa frente a ataques bizantinos en Aprendizaje Federado: un enfoque más justo y explicable

Resumen

Con el auge de la Inteligencia Artificial (IA), crece de forma exponencial la cantidad de información depositada en Internet. Además, de forma paralela crece la preocupación de los usuarios por el uso de aplicaciones basadas en IA en contextos delicados y se empieza a desarrollar las primeras leyes reguladoras. En este contexto surge el Aprendizaje Federado como un paradigma de aprendizaje distribuido que asegura la privacidad de los datos. Sin embargo, es vulnerable a ataques adversarios bizantinos. Existen diferentes mecanismos de defensa en la literatura, pero están muy centrados en mitigar el efecto del ataque, pudiendo eliminar a clientes pobres (que tienen distribución sesgada de datos) perdiendo información relevante, y no proporcionan ningún tipo de explicación de las decisiones que toman.

En este trabajo desarrollamos un mecanismo de defensa que, además de mitigar los efectos del ataque, proporciona otras cualidades deseables para desarrollar una IA confiable, como son la justicia y equidad con todos los clientes del esquema federado y la explicabilidad de las soluciones llamado FX-DDaBA. Comprobamos el funcionamiento de nuestra propuesta tanto en términos de rendimiento, como de justicia de clientes pobres y explicabilidad de las decisiones sobre dos conjuntos de clasificación de imágenes. Concluimos que, efectivamente, se pueden añadir otras características de valor al mismo tiempo que se mitiga el efecto del ataque.

Abstract

With the rise of Artificial Intelligence (AI), the amount of information deposited on the Internet is growing exponentially. At the same time, users are becoming increasingly concerned about the use of AI-based applications in sensitive contexts, and the first regulatory laws are beginning to be developed. In this context, Federated Learning emerges as a distributed learning paradigm that ensures data privacy. However, it is vulnerable to Byzantine adversarial attacks. Different defence mechanisms exist in the literature, but they are very focused on mitigating the effect of the attack, may eliminate poor clients (which have skewed data distribution) losing relevant information, and do not provide any kind of explanation of the decisions they make.

In this work we develop a defence mechanism that, besides mitigating the effects of the attack, provides other desirable qualities to develop a reliable AI, such as fairness and equity with all clients of the federated scheme and explainability of the solutions called FX-DDaBA. We test the performance of our proposal both in terms of performance, poor client fairness and explainability of decisions on two sets of image classification. We conclude that other valuable features can indeed be added while mitigating the effect of the attack.

Sobre el ponente

Nuria Rodríguez Barroso

Nuria Rodríguez Barroso

UGR Flag of España

Discussion

Información Práctica
Ponencia
Spanish / Español
noviembre 16, 2023 10:50 a. m.
5 minutos
Salon SITIC 1
Autores
Nuria Rodríguez Barroso
M. Victoria Luzón
Francisco Herrera
Palabras clave
aprendizaje federado
ataques bizantinos
byzantine attacks
data privacy
explainability
explicabilidad
feature importance
federated learning
importancia de caracter ́ısticas
privacidad de datos
Documentos