2nd International Symposium on "Generation and Transfer of Knowledge for Digital Transformation"
SITIC2023
Abstract
With the rise of Artificial Intelligence (AI), the amount of information deposited on the Internet is growing exponentially. At the same time, users are becoming increasingly concerned about the use of AI-based applications in sensitive contexts, and the first regulatory laws are beginning to be developed. In this context, Federated Learning emerges as a distributed learning paradigm that ensures data privacy. However, it is vulnerable to Byzantine adversarial attacks. Different defence mechanisms exist in the literature, but they are very focused on mitigating the effect of the attack, may eliminate poor clients (which have skewed data distribution) losing relevant information, and do not provide any kind of explanation of the decisions they make.
In this work we develop a defence mechanism that, besides mitigating the effects of the attack, provides other desirable qualities to develop a reliable AI, such as fairness and equity with all clients of the federated scheme and explainability of the solutions called FX-DDaBA. We test the performance of our proposal both in terms of performance, poor client fairness and explainability of decisions on two sets of image classification. We conclude that other valuable features can indeed be added while mitigating the effect of the attack.
Resumen
Con el auge de la Inteligencia Artificial (IA), crece de forma exponencial la cantidad de información depositada en Internet. Además, de forma paralela crece la preocupación de los usuarios por el uso de aplicaciones basadas en IA en contextos delicados y se empieza a desarrollar las primeras leyes reguladoras. En este contexto surge el Aprendizaje Federado como un paradigma de aprendizaje distribuido que asegura la privacidad de los datos. Sin embargo, es vulnerable a ataques adversarios bizantinos. Existen diferentes mecanismos de defensa en la literatura, pero están muy centrados en mitigar el efecto del ataque, pudiendo eliminar a clientes pobres (que tienen distribución sesgada de datos) perdiendo información relevante, y no proporcionan ningún tipo de explicación de las decisiones que toman.
En este trabajo desarrollamos un mecanismo de defensa que, además de mitigar los efectos del ataque, proporciona otras cualidades deseables para desarrollar una IA confiable, como son la justicia y equidad con todos los clientes del esquema federado y la explicabilidad de las soluciones llamado FX-DDaBA. Comprobamos el funcionamiento de nuestra propuesta tanto en términos de rendimiento, como de justicia de clientes pobres y explicabilidad de las decisiones sobre dos conjuntos de clasificación de imágenes. Concluimos que, efectivamente, se pueden añadir otras características de valor al mismo tiempo que se mitiga el efecto del ataque.
About The Speaker
Nuria Rodríguez Barroso
Discussion