Modelos ARIMA, SARIMA y Método de Selección de Variables LASSO para Series Temporales (Parte 1)
Los modelos ARIMA y SARIMA , son métodos utilizados para el análisis de una serie de tiempo y predicción de un estudio, aparte de ello existen otros métodos, así como el método de LASSO.
Autores: Gladys Choque Ulloa, Sandra Rosa Arroyo Paredes, Redy Rivas Idme
Modelos ARMA (p,q)
El modelo ARMA es una herramienta para prever valores futuros de la série, y está compuesto de dos partes, una parte autorregresiva (AR) y una parte de la media móvil (MA). [4]
Una serie de tiempo es un modelo ARMA (p,q) si satisface;
donde ϕ1,......,ϕp son los parámetros de la parte AR, θ1,......,θp son los parámetros de la parte MA y αt es ruido blanco.
Modelo ARIMA (p,d,q)
Una serie de tiempo estacionaria es aquella cuya propiedades estadísticas (media y varianza) son constantes con respecto al tiempo.
Supongamos que:
es un proceso original no estacionario, con tendencia polinomial adaptivo de orden d entonces, se puede obtener un nuevo proceso:
tal que es estacionario el cual da origen a un proceso autorregresivo integrado de medias móviles.[4]
Figura 1: Gráfica de una Série Temporal
La mayor parte de las series no son estacionarias, una serie es estacionaria cuando es estable a lo largo del tiempo, es decir, cuando la media y varianza son constantes en el tiempo. Para ajustar una serie no estacionaria es necesario eliminar la fuerte variación no estacionaria. Si la serie de tiempo observada no es estacionaria en la media, lo cual implica que la serie presenta en su comportamiento una tendencia de tipo polinomial no determinista (no estacionariedad homogénea), entonces podemos tomar las diferencias de las series de tal forma de obtener una serie estacionaria.
Modelo SARIMA
El modelo SARIMA (p,d,q) X (P,D,Q) es definido como;
donde;
• Generaliza todos los modelos de la familia ARIMA
• Permite modelar series estacionarias, bien como series estacionales y no estacionarias.
En un modelo SARIMA se incluye términos factores estacionales autorregresivos (P), diferenciación estacional (D) y promedio móvil estacional (Q), o es decir, el modelo SARIMA contiene factores estacionales y no estacionales en un modelo multiplicativo.[4]
LASSO
En Estadística y Aprendizaje Automático, Lasso (least absolute shrinkage and selection operator, por sus siglas en inglés), es un método de análisis de regresión que realiza selección de variables y regularización. Este método realiza que los coeficientes del modelo tiendan a cero, minimizando así el riesgo de overfitting, reduciendo varianza, atenuado el efecto de la correlación entre predictores y reduciendo la influencia en el modelo de los predictores menos relevantes para mejorar la exactitud e interpretabilidad del modelo estadístico producido por este.
Fue introducido por Robert Tibshirani en 1996 basado en el trabajo de Leo Breiman sobre el Garrote No-Negativo[7]. Lasso fue formulado originalmente para el método de mínimos cuadrados y este caso simple revela una cantidad substancial acerca del comportamiento del estimador, incluyendo su relación con ridge regression y selección de subconjuntos (de variables) y la conexión entre los coeficientes estimados con lasso y el llamado 'soft thresholding'. También revela que (al igual que la Regresión Lineal estándar) los coeficientes estimados no necesariamente son únicos si las variables independientes son colineales.[7][1]
CONCLUSIÓN
Los modelos ARIMA, SARIMA y el método de selección de variables LASSO, son modelos que se usan para la predicción y modelamiento de un conjunto de datos. LASSO es un método de penalización que es una modificación de las técnicas de regresión clásicas. La diferencia entre Ridge y LASSO es que Ridge contrae los coeficientes, pero no los hace cero, en cambio, LASSO hace que los coeficientes sean cero cuando no son tan importantes, este método de penalización también se conoce como método de selección de variables.
BIBLIOGRAFÍA
[1] Ranstam, J., & Cook, J. A. (2018). LASSO regression. Journal of British Surgery, 105(10), 1348-1348.
[2] Yan, Z., & Yao, Y. (2015). Variable selection method for fault isolation using least absolute shrinkage and selection operator (LASSO). Chemometrics and Intelligent Laboratory Systems, 146, 136-146.
[3] Sun, K., Huang, S. H., Wong, D. S. H., & Jang, S. S. (2016). Design and application of a variable selection method for multilayer perceptron neural network with LASSO. IEEE transactions on neural networks and learning systems, 28(6), 1386-1396
[4] Kajuru, J. Y., Abdulkarim, K.,& Muhammed, M. M. (2019). Forecasting Performance of ARIMA and Sarima Models on Monthly Average Temperature of Zaria, Nigeria. ATBU Journal of Science, Technology and Education, 7(3), 205-212.
[5] Otu, O. A., Osuji, G. A., Opara, J., Mbachu, H. I., & Iheagwara, A. I. (2014). Application of Sarima models in modelling and forecasting Nigeria’s inflation rates. American Journal of Applied Mathematics and Statistics, 2(1), 16-28.
[6] Tseng, F. M., Yu, H. C., & Tzeng, G. H. (2002). Combining neural network model with seasonal time series ARIMA model. Technological forecasting and social change, 69(1), 71-87.
[7] Rodrigues, K. A. (2018). LASSO Clássico e Bayesiano. Instituto de Matemática e Estatística,Universidade de São Paulo, Brasil.
[8] Instituto Nacional de Meteorologia, Ministério da Agricultura, Pecuária e Abastecimento, Brasil. (https://portal.inmet.gov.br/dadoshistoricos).