UN MARCO BASADO EN APRENDIZAJE AUTOMÁTICO PARA LA DETECCIÓN DE TRANSACCIONES FRAUDULENTAS FINANCIERAS
Resumen
El objetivo de este estudio fue desarrollar y evaluar modelos de aprendizaje automático para la detección de fraude financiero en transacciones, con el fin de mitigar las pérdidas económicas y apoyar la toma de decisiones en las instituciones bancarias. La metodología empleó el conjunto de datos públicos de detección de fraude con tarjetas de crédito, compuesto por 284 807 transacciones, de las cuales solo 492 fueron fraudulentas (≈ 0,172 %). Se probaron los algoritmos Random Forest y XGBoost, con y sin la aplicación de la técnica de balanceo SMOTE. La evaluación se realizó mediante métricas como precisión, exhaustividad, puntuación F1, coeficiente de correlación de Matthews (MCC), además de las curvas ROC y de precisión-exhaustividad. Complementariamente, se llevó a cabo una validación cualitativa mediante entrevistas con cuatro especialistas del sector financiero, para analizar la aplicabilidad práctica de los modelos. Los resultados mostraron que todos los modelos presentaron un alto rendimiento general, con áreas bajo la curva ROC superiores a 0,96. XGBoost con SMOTE logró una mayor sensibilidad, con una exhaustividad del 85 % y 15 falsos negativos, pero con un aumento en los falsos positivos (22). Por otro lado, Random Forest sin SMOTE obtuvo una mayor precisión (0,94) y la puntuación F1 más alta (0,87), pero no detectó 18 casos de fraude. Random Forest con SMOTE mostró un rendimiento intermedio. La validación cualitativa confirmó la relevancia de los modelos: el 75 % de los especialistas priorizó la máxima detección de fraude, incluso con un mayor número de falsos positivos, y el 25 % valoró la reducción de falsos positivos, incluso a costa de una menor sensibilidad. Se concluye que la elección del modelo debe considerar el equilibrio entre exhaustividad y precisión, en consonancia con las prioridades institucionales entre reducir las pérdidas financieras y minimizar la sobrecarga operativa. El estudio también destaca limitaciones, como el uso de un conjunto de datos temporales específico y la ausencia de una optimización avanzada de hiperparámetros. Para trabajos futuros, se sugiere explorar el ajuste de parámetros, el aprendizaje incremental y la validación con conjuntos de datos contemporáneos, con el objetivo de lograr una mayor robustez y aplicabilidad práctica de los modelos.
