Noticias en Monterrey

Buscar
Cerrar este cuadro de búsqueda.

Algoritmos en la Silla del Banquero

Por Carlos Chavarria Garza

El sector financiero ha estado inmerso en la ciencia de datos por décadas, utilizando inicialmente la conocida como minería de datos y modelos supervisados básicos (como la regresión logística para el scoringcrediticio) para analizar patrones históricos. Sin embargo, esta aproximación, aunque efectiva en su momento, era inherentemente  discreta y se limitaba a evaluar un conjunto cerrado de variables. Hoy, la evolución es exponencial: hemos pasado de esa minería de datos sobre la historia a la Inteligencia Artificial (IA) en tiempo real, capaz de ingerir y procesar datos no estructurados y de alta velocidad, lo que confiere una profundidad y velocidad predictiva completamente nueva a la planeación  y gestión de riesgos.

La irrupción de la Inteligencia Artificial (IA) se perfila como el catalizador de la transformación más profunda en el ámbito financiero desde la invención de la contabilidad moderna. Si bien el cambio es visible en la atención al cliente y la detección de fraudes, su impacto más fundamental reside en la planeación financiera predictiva y el direccionamiento y ubicación dinámica de capital. La capacidad de la IA para realizar un análisis y vigilancia continuos sobre sectores enteros de la economía no solo optimiza la gestión de créditos, sino que reescribe las reglas del riesgo sistémico y la estabilidad regulatoria.

I. Vigilancia Continua y la Predicción de Estrés Financiero

El paradigma tradicional de la planificación  financiera, basado en la revisión trimestral de balances y datos históricos, se está volviendo obsoleto. La IA permite a las instituciones financieras y en general a cualquier organización, procesar Big Data con telemetrías  en tiempo real, desde datos transaccionales hasta flujos de noticias y variables macroeconómicas. Este monitoreo continuo es la clave para predecir el estrés financiero anticipado.

Un ejemplo muy claro se encuentra en la interdependencia del sector productivo con factores externos como el energético. Un banquero, asistido por IA, puede utilizar modelos de Redes Neuronales Recurrentes (RNNs) o de Memoria a Largo Plazo (LSTMs) para analizar series temporales de precios de energía, almacenamiento y demanda. Al integrar estos datos con las estructuras de costos de las empresas de su cartera, la IA puede pronosticar con precisión por ejemplo, el momento en que una fluctuación en la disponibilidad o el costo de la energía someterá a cadenas económicas completas a un estrés crediticio insostenible, mucho antes de que se refleje en una caída de ingresos.

II. El Riesgo Sistémico y el Análisis de Redes

La verdadera potencia predictiva de la IA reside en el análisis del riesgo de contagio. Los modelos avanzados abordan la economía no como una colección de entidades aisladas, sino como una enorme red interconectada donde las empresas son nodos y las relaciones de crédito, proveedores y clientes son aristas.

Al mapear esta compleja telaraña, la IA puede simular cómo el incumplimiento de una empresa en un sector de manufactura, provocado quizás por la escasez de un componente clave, se propagaría a sus acreedores y a los proveedores dependientes, cuantificando así el riesgo sistémico con una detalle  sin precedentes. Esta capacidad transforma la asignación de capital, permitiendo a los inversionistas y prestamistas optimizar las carteras en función de su exposición a la estabilidad de la red económica, no solo a la solidez individual de cada empresa.

III. El Imperativo Regulatorio: Basilea y la Interpretabilidad 

El avance de la IA obliga a una modificación forzosa de los marcos regulatorios internacionales, y serán  los Acuerdos de Basilea el punto de mayor fricción. Los bancos que utilizan el Enfoque Basado en Modelos Internos (IRB) para calcular sus requerimientos de capital (especialmente la Probabilidad de Incumplimiento o default, PD) encuentran que la precisión de los modelos de Machine Learning se enfrenta con la exigencia de transparencia.

Los modelos de caja negra, aunque precisos, dificultan la justificación de las decisiones ante los reguladores. Por ello, el foco regulatorio se ha desplazado hacia la Interpretabilidad de la IA (XAI). Los bancos deberán demostrar que poseen un Marco de Gobernanza de Modelos robusto y pueden explicar la lógica detrás de cada decisión crediticia, por ejemplo, utilizando técnicas como los valores de SHAP (SHapley Additive exPlanations). Si un banco no puede justificar que su modelo de IA es robusto, no discriminatorio y estable, el regulador puede imponer un multiplicador de capital más alto, lo que penaliza la opacidad.

IV. Desafíos Éticos y la Equidad Algorítmica

El riesgo de que los modelos de IA perpetúen o amplifiquen sesgos históricos en los datos (discriminación crediticia implícita) es ahora un componente crítico del Riesgo Operacional bajo el escrutinio de Basilea. Un modelo que utiliza indirectamente variables correlacionadas con atributos protegidos (como la geolocalización o el apellido) puede resultar en la negación sistemática de crédito a grupos minoritarios.

Para mitigar este riesgo, los bancos deben implementar Auditorías de Equidad y Robustez continuas. La ética, en el contexto de la IA financiera, no es una cuestión filosófica, sino un riesgo cuantificable que, de materializarse en litigios o sanciones regulatorias, impacta directamente la adecuación del capital.

La Inteligencia Artificial está sentando las bases de una nueva era en la planeación económica  en general, caracterizada por la hiper-precisión y la prevención sistémica del riesgo. Esta transformación ofrece beneficios operativos inmensos, pero exige un alto precio en términos de gobernanza, ética y cumplimiento normativo. 

El futuro del profesional financiero no es el de un calculador de riesgos, sino el de un intérprete estratégicoque traduce la complejidad de los insights de la IA en decisiones de capital equitativas y estables. El desafío actual reside en modificar los marcos regulatorios a la misma velocidad que avanza la innovación tecnológica, garantizando que el sistema sea más seguro y más justo para todos los participantes de la economía.

V. Reglas Emergentes para Mitigar el Riesgo Moral en la Era de la IA

El riesgo moral siempre ha sido el coco de los reguladores financieros, cuanto riesgo están absorbiendo los inversionistas que puede llevar a problemas de todo el sistema financiero. La “hiper-precisión” con sesgos y la velocidad de la IA, si bien son herramientas potentes para la gestión de riesgos, paradójicamente pueden exacerbar el riesgo moral. La capacidad de predecir fallos con mayor antelación podría incentivar comportamientos más arriesgados si los actores del mercado asumen que la detección temprana por parte de los reguladores o las instituciones centrales garantizará un rescate oportuno. Para contrarrestar esta profundización del riesgo moral, se necesitan nuevas reglas y adaptaciones regulatorias:

  • Responsabilidad Algorítmica y «Bail-Ins» Automatizados: Las nuevas regulaciones deben pasar de la noción de «demasiado grande para quebrar» (too big to fail) a la de «demasiado sistémico para no tener un plan de resolución algorítmico». Esto implica diseñar marcos donde, ante señales de estrés sistémico identificadas por la IA, se activen automáticamente mecanismos de «bail-in» (donde los acreedores asumen las pérdidas) predefinidos y ejecutables mediante contratos inteligentes o sistemas automatizados, reduciendo la discrecionalidad política y la expectativa de rescates públicos.
  • Auditorías de Incentivos en los Modelos de IA: Más allá de la auditoría de sesgos y interpretabilidad, se requerirá una auditoría regulatoria de los incentivos incorporados en los modelos de asignación de capital. Los reguladores (como la Autoridad Bancaria Europea (EBA) deben tener la capacidad de evaluar si los modelos de IA interna de un banco, al optimizar la rentabilidad, están subestimando sistemáticamente los riesgos de cola (eventos extremos e improbables) bajo la expectativa implícita de una intervención pública si dichos eventos ocurren.
  • Neutralidad Tecnológica y Estandarización de Datos: Para nivelar el campo de juego y permitir una supervisión que sea efectiva, las nuevas reglas deben exigir la estandarización en la presentación de datos de riesgo y sesgo relacionados con la IA. Esto permite a los supervisores utilizar sus propias herramientas de IA para auditar y comparar modelos de manera independiente (supervisión asistida por IA), evitando que las instituciones utilicen la complejidad tecnológica como un escudo contra el escrutinio.
  • Marcos de «Sandbox» Regulatorios con Límites Claros: Fomentar la innovación mediante «sandboxes» (espacios de pruebas regulatorios) es crucial, pero estos deben operar con límites estrictos sobre la exposición sistémica permitida y con planes de salida claros. Si un experimento de IA innovador falla, las pérdidas deben estar contenidas dentro del sandbox y no socializarse al mercado general, reforzando la disciplina de mercado.

La IA ofrece herramientas sin precedentes para la transparencia y la gestión prudencial. Sin embargo, su integración exitosa en el sistema financiero global dependerá de un rediseño proactivo del contrato social y regulatorio, uno que utilice la misma tecnología para reforzar la responsabilidad individual y evitar con oportunidad la propagación y socialización de las pérdidas.

Referencias Bibliográficas

  • Baesens, B., Van Vlasselaer, V., & Verbeke, W. (2015). Fraud Analytics Using Descriptive, Predictive, and Prescriptive Techniques. Wiley. (Útil para modelos avanzados de ML en riesgo).
  • Comité de Basilea de Supervisión Bancaria (BCBS). (2021). Principles for the effective management of cyber-risk. (Fundamental para el Riesgo Operacional y la Gobernanza de Modelos).
  • Lundberg, S. M., & Lee, S. I. (2017). A Unified Approach to Interpreting Model Predictions. Advances in Neural Information Processing Systems (NIPS 2017). (Referencia clave para los valores de SHAP y XAI).
  • O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown. (Referencia central para el sesgo algorítmico y la ética).
  • Thomas, L. C. (2000). A Survey of Credit and Behavioural Scoring: Forecasting Financial Risk of Lending to Consumers. International Journal of Forecasting, 16(2), 149-172. (Referencia histórica para el scoring tradicional basado en regresión logística).

Fuente:

Vía / Autor:

// Carlos Chavarria Garza

Etiquetas:

Compartir:

Autor: lostubos
Ver Más