Los académicos del Departamento de Estadística de la Universidad de Concepción, Dres. Guillermo Ferreira y Joel Muñoz, junto a Jorge Mateu de la Universidad Jaime I y José A. Vilar de la Universidad de La Coruña, ambas de España, desarrollaron una nueva metodología estadística para enfrentar la ausencia de uno de los supuestos fundamentales en el modelamiento de datos que son registrados secuencialmente en el tiempo, el de “Estacionariedad”.
El Dr. Guillermo Ferreira, explica que “esto se refiere a mantener constantes las propiedades de estadísticas del modelo, mantenerlas estables a lo largo del tiempo. Sin este supuesto, no se pueden utilizar las metodologías tradicionales para enfrentar datos con dependencia temporal y realizar predicciones confiables”.
Cabe mencionar que la mayoría de las bases de datos con registros en el tiempo no cumplen con este supuesto, es decir son datos no-estacionarios; por lo tanto, muchos investigadores realizan transformaciones a los datos para poder conseguir la anhelada propiedad de la estacionariedad.
“En este contexto, nuestro trabajo proporciona una metodología para determinar con mayor exactitud el grado de dependencia de ciertas variables bajo el supuesto de no-estacionariedad”, comenta el Dr. Ferreira.
Con este estudio, los científicos entregan una herramienta estadística para los “modelos de regresión”; estos son modelos matemáticos que permiten relacionar de manera lineal variables observacionales. Las variables registradas secuencialmente en el tiempo son un conjunto de datos que se registran en un periodo de tiempo fijo, es decir, todas las observaciones deben tener la misma unidad de medida temporal, por ejemplo, diaria, mensual o anual. Ejemplos de estos registros son el IPC, el precio del cobre, los precios de las acciones, la temperatura, etc.
Cabe destacar que el trabajo realizado cohesiona diferentes metodologías que en su momento requerían una carga computacional enorme, por ejemplo, las técnicas bootstrap (técnica de remuestreo que permite obtener las distribuciones empíricas o muestrales de las principales características estadísticas de los datos) propuestas en el siglo XX requerían de un costo computacional enorme, lo mismo para la simulación y el modelamiento de procesos localmente estacionarios.
Para solucionar este tipo de dificultad, en este artículo los autores usaron técnicas de paralelización computacional, es decir, la utilización de múltiples núcleos para trabajar simultáneamente en diferentes partes de un problema, el cual reduce los tiempos de cómputo logrando ser más eficiente, lo que se conoce como computación de alto rendimiento.
La investigación llevada a cabo por académicos de Chile y España durante dos años se titula “Bootstrapping Regression Models with Locally Stationary Disturbances” (“Modelos de regresión Bootstrap con errores localmente estacionarias”, en español) y fue publicada en la prestigiosa revista científica TEST.