Executive Secretary
III International Symposium on “Generation and Transfer of Knowledge for Digital Transformation
SITIC 2025
Abstract
Problem: Federated Learning (FL) enables decentralized model training without sharing sensitive data, but statistical heterogeneity introduces biases in BatchNorm (BN) layers, compromising model generalization.
Objective(s): To propose FedSyncBN, a strategy for federated learning that synchronizes BatchNorm statistics (mean and variance) during aggregation, combining relative data size and class balance to compute adaptive weights for synchronization.
Methodology: A pre-trained EfficientNet-B0 model adapted for binary classification of 15600 chest X-rays from normal subjects and patients with vascular anomalies was used. A federated environment with 10 clients was simulated, featuring dual heterogeneity: sample sizes distributed via Pareto (α = 2.5; range 240–2400 samples/client) and extreme class proportions generated via Dirichlet sampling (α = 0.52), reflecting real-world clinical disparities. FedSyncBN was compared against FedAvg and FedProx using local and global metrics.
Results and Discussion: FedSyncBN improved global generalization, achieving a centralized AUC-ROC of 0.9340 (+1.0 % vs. FedAvg) and recall of 0.9400 (+3.5 %), with a 20.5 % reduction in false positives compared to FedAvg. FedProx showed better local diagnostic balance (F1-Score=0.9310) but incurred higher false-negative rates (+44.8 % vs. FedAvg), limiting its clinical applicability in critical scenarios. FedAvg maintained intermediate balance but poorer generalization in heterogeneous environments.
Conclusions: FedSyncBN is proposed as a solution to mitigate BatchNorm statistical biases in FL with heterogeneous data, enhancing generalization and diagnostic balance in collaborative radiology models, and facilitating practical deployment in multicenter clinical settings.
Resumen
Problemática: El Aprendizaje Federado (FL) permite entrenar modelos descentralizados sin compartir datos sensibles, pero la heterogeneidad estadística genera sesgos en las capas de BatchNorm (BN), afectando la generalización de modelos.
Objetivo(s): Proponer FedSyncBN, una estrategia para el FL que sincroniza las estadísticas de BN (media y varianza) durante la agregación, combinando el tamaño relativo de datos y el balance de clases para calcular pesos adaptativos en la sincronización.
Metodología: Se empleó un modelo EfficientNet-B0 preentrenado, adaptado para la clasificación binaria de 15 600 radiografías de tórax normales y con anomalías vasculares. Se simuló un entorno federado con 10 clientes, caracterizado por heterogeneidad dual: tamaños muestrales distribuidos según Pareto (α = 2,5; rango 240–2400 muestras por cliente) y proporciones extremas de clases generadas mediante muestreo Dirichlet (α = 0,52), reflejando disparidades clínicas realistas. Se comparó con los métodos FedAvg y FedProx mediante métricas locales y globales.
Resultados y discusión: FedSyncBN mejoró la generalización global, alcanzando un AUC-ROC centralizado de 0,9340 (+1,0 % respecto a FedAvg) y recall de 0,9400 (+3,5 %), con una reducción del 20,5 % en falsos positivos frente a FedAvg. FedProx presentó un mejor equilibrio diagnóstico local (F1-Score = 0,9310), aunque a costa de una mayor tasa de falsos negativos (+44,8 % vs FedAvg), lo que limita su aplicabilidad clínica en escenarios críticos.
Conclusiones: FedSyncBN se propone como una solución para mitigar los sesgos estadísticos de BatchNorm en FL con datos heterogéneos, mejorando la generalización y el equilibrio diagnóstico y aplicación práctica en entornos clínicos multicéntricos.
About The Speaker
Dr. Yusely Ruiz Gonzalez

Discussion