La Probabilidad de Impago Soberano
Este artículo es una ampliación de la información sobre derecho financiero, en esta revista de derecho corporativo. Aparte de ofrecer nuevas ideas y consejos clásicos, examina el concepto y los conocimientos necesarios, en el marco de los aspectos jurídicos financieros, sobre este tema. Te explicamos, en relación a los principios, prácticas y normas jurídicas financieras y bancarias, qué es, sus características y contexto.
Ciencia actuarial, Infraestructura bancaria, Impagos, Deuda, Riesgo Financiero, Gestión del Riesgo Financiero, Sistema Bancario, Previsiones estadísticas
La Probabilidad de Impago Soberano
La probabilidad de incumplimiento o impago soberano refleja la vulnerabilidad financiera y las dificultades de financiación o refinanciación soberanas o el impago de las economías de mercado avanzadas y emergentes. Nunca te pierdas una historia sobre derecho bancario y financiero, de esta revista de derecho empresarial:
Se considera un indicador fundamental de alerta temprana de crisis financieras y de contagio de los mercados financieros mundiales. Así pues, las calificaciones crediticias de los soberanos y las tasas de impago soberano conexas siguen siendo una de las principales preocupaciones de los mercados financieros internacionales y de los encargados de la formulación de políticas económicas. Nunca te pierdas una historia sobre derecho bancario y financiero, de esta revista de derecho empresarial:
Según la versión actual del Acuerdo de Capital de Basilea 3, se permitirá a las instituciones financieras utilizar las calificaciones crediticias y las correspondientes tasas de impago para determinar la cantidad de capital reglamentario que deben reservar contra sus riesgos crediticios. Esto suscita los crecientes intereses de investigación sobre los determinantes y los co-movimientos de los incumplimientos soberanos. Si bien la gran cantidad de información que contienen los datos sobre el incumplimiento soberano permite comprender la dependencia entre las economías, el enorme tamaño de la muestra, la gran dimensionalidad y la compleja estructura de dependencia de los datos crean problemas computacionales y estadísticos.
Resulta que el análisis de los datos en un espacio reducido suele ir acompañado de una mejor interpretación y precisión de la estimación.
Esto explica posiblemente la amplia adopción de modelos factoriales en la literatura. Los modelos factoriales intentan descifrar fenómenos complejos de datos de grandes dimensiones a través de un pequeño número de causas o factores básicos. Aunque a menudo se supone que los factores son determinantes macroeconómicos y financieros, nuestro estudio tiene por objeto iniciar una nueva investigación sobre la identificación de los factores de las probabilidades de incumplimiento soberano de una manera basada en los datos.
.
Desde un punto de vista estadístico, la comprensión de la dependencia entre estas probabilidades de impago soberano se basa en la estimación de la distribución de probabilidad conjunta de las múltiples variables.
Los métodos convencionales como el análisis de componentes principales (PCA) y el análisis de factores (FA) extraen un conjunto de factores no correlacionados de los datos multivariantes y dependientes dentro de un marco lineal.
En el caso de Gaussianity, la no correlación es idéntica a la independencia.
Con la ayuda de la transformación jacobina, la compleja distribución conjunta puede obtenerse utilizando las distribuciones marginales de cada factor en forma cerrada. Así, el problema estadístico de alta dimensión se convierte en casos univariantes.
Sin embargo, la independencia no se mantiene si las variables medidas, por ejemplo las probabilidades de incumplimiento soberano, no están distribuidas en Gauss, lo que es muy probable en la práctica.
En este caso, la estimación de la distribución conjunta no puede resolverse fácilmente con la ayuda de los métodos convencionales. El método de Análisis de Componentes Independientes (ICA), más recientemente desarrollado, arroja luz sobre las posibles soluciones.
.
De manera similar a los métodos PCA y FA, el ICA identifica los factores esenciales mediante una transformación lineal.
En lugar de proyectarse en los vectores propios de la matriz de covarianza como hace el PCA, el ICA extrae directamente los factores estadísticos independientes de los datos complejos originales mediante la resolución de un problema de optimización de la independencia cruzada estadística.
.
Dependiendo de la definición de independencia, se han propuesto varios métodos de estimación, entre ellos la maximización de la no-gaussianidad, la minimización de la información mutua, la estimación de máxima verosimilitud, y la estimación paramétrica local con carga variable en el tiempo. Sin embargo, en el espacio de altas dimensiones, el ICA conduce a una dependencia redundante al asumir que cada factor está asociado (véase qué es, su concepto jurídico; y también su definición como "associate" en derecho anglo-sajón, en inglés) con todas las variables medidas.
La sobreparametrización se puede solucionar reduciendo el número de factores o simplificando la estructura de la matriz de carga. Wu y otros (2006) propusieron un enfoque de ordenamiento basado en el criterio de error de la media cuadrada para identificar el número de CI. Esta reducción de la dimensión va acompañada eventualmente (finalmente) de una pérdida de información.
Por otra parte, la dependencia entre las probabilidades de incumplimiento soberano medidas y los factores puede ser escasa. Una situación posiblemente más realista es que cada variable medida solo está impulsada por unos pocos factores, mientras que otras dependen de un conjunto posiblemente diferente de factores. Esto sugiere la necesidad de reducir la dimensionalidad en el espacio de los parámetros, con una matriz de carga dispersa. La estimación de la dispersión se ha utilizado ampliamente, especialmente en el análisis de regresión regularizada. Bajo el supuesto de dispersión, se penaliza la dependencia innecesaria y los coeficientes (ratios) insignificantes se llevan a cero, y la penalización por desviación absoluta suavemente recortada (SCAD) y así sucesivamente.
La adopción de la escasez en el análisis de componentes independientes es todavía nueva. Basado en la experiencia de varios autores, nuestras opiniones y recomendaciones se expresarán a continuación (o en otros artículos de esta revista, en cuanto al derecho financiero y bancario, y respecto a sus características y/o su futuro): Hyvärinen y Raju (2002) propusieron el ICA bayesiano de dispersión, en el que se supone que la matriz de carga es aleatoria y se impone una dispersión conjugada previa a la matriz de carga. Otras investigaciones incorporaron un enfoque adaptativo en el método de estimación de máxima verosimilitud para obtener una matriz de carga dispersa, en la que se supone que los factores estadísticos independientes siguen una familia de distribución simple con un parámetro.
En los trabajos anteriores se desconocen las propiedades teóricas de los estimadores. Datos verificados por: LI