Wednesday 4 January 2017

Moyenne Mobile Modèle Acf

A Corrélogramme Dans l'analyse des données, nous commençons habituellement par les propriétés statistiques descriptives des données de l'échantillon (par exemple, moyenne, écart-type, biais, kurtosis, distribution empirique, etc.). Ces calculs sont certainement utiles, mais ils ne tiennent pas compte de l'ordre des observations dans les données de l'échantillon. L'analyse des séries chronologiques exige que l'on prête attention à l'ordre et nécessite donc un type différent de statistiques descriptives: des statistiques descriptives de séries chronologiques ou simplement des analyses de corrélogrammes. L'analyse corrélogramme examine la dépendance spatio-temporelle dans les données de l'échantillon et se concentre sur l'autocovariance empirique, l'auto-corrélation et les tests statistiques connexes. Enfin, le corrélogramme est une pierre angulaire pour l'identification du (des) modèle (s) et modèle (s). Ce tutoriel est un peu plus théorique que les tutoriels précédents dans la même série, mais nous ferons de notre mieux pour conduire les intuitions Maison pour vous. Contexte D'abord, commencez bien par une définition de la fonction d'auto-corrélation, simplifiez-la et étudiez l'ACF théorique pour un processus de type ARMA. Fonction d'auto-corrélation (ACF) Par définition, la corrélation automatique pour le décalage k est exprimée comme suit: Cette courbe ACF est également infinie, mais la forme réelle peut suivre des motifs différents. Un processus AR peut être représenté par un processus MA infini. L'AR a une mémoire infinie. Exemple 4 - Modèle ARMA (p, q) A l'heure actuelle, on voit à quoi ressemble le tracé ACF d'un processus MA et AR pur Mais pourquoi pas un mélange des deux modèles Question: pourquoi devons-nous considérer un modèle de mélange comme ARMA, puisque nous pouvons représenter n'importe quel modèle comme MA ou un modèle AR Réponse: nous essayons de réduire l'exigence de mémoire et le Complexité du processus en superposant les deux modèles. En utilisant la formule d'auto-corrélation MA (q), nous pouvons calculer les fonctions d'auto-corrélation ARMA (p, q) pour leur représentation MA. Cela devient intense Certains d'entre vous pourraient se demander pourquoi nous n'avons pas utilisé VAR ou une représentation d'espace d'état pour simplifier les notations. J'ai fait un point de rester dans le domaine du temps, et évité toute nouvelle idée ou des astuces de mathématiques car ils ne serviraient pas nos intentions ici: Implying l'ordre ARMA exacte en utilisant les valeurs ACF par eux-mêmes, qui est tout sauf précis. Intuition: Les valeurs ACF peuvent être considérées comme les valeurs des coefficients du modèle équivalent MA. Intuition: La variance conditionnelle n'a pas de barrière (effet) sur les calculs d'auto-corrélation. Intuition: La moyenne à long terme n'a pas non plus de barrière (effet) sur les auto-corrélations. Fonction d'auto-corrélation partielle (PACF) Nous avons vu que l'identification de l'ordre du modèle (MA ou AR) est non trivial pour les cas non-simples, nous avons besoin d'un autre outil d'auto-corrélation partielle (PACF). La fonction d'auto-corrélation partielle (PACF) joue un rôle important dans l'analyse des données visant à identifier l'ampleur du retard dans un modèle autorégressif. L'utilisation de cette fonction a été introduite dans le cadre de l'approche de Box-Jenkins à la modélisation des séries temporelles, dans laquelle on peut déterminer les décalages appropriés p dans un modèle AR (p) ou dans un modèle ARIMA (p, d, q) Les fonctions d'auto-corrélation partielle. Le PACF suppose que le modèle sous-jacent est un AR (k) et utilise des régressions multiples pour calculer le dernier coefficient de régression. Intuition rapide: les valeurs PACF peuvent être considérées (à peu près) comme les valeurs des coefficients du modèle AR équivalent. Comment le PACF nous est-il utile? En supposant que nous avons un processus AR (p), le PACF aura des valeurs significatives pour les premiers p lags et tombera à zéro après. Qu'en est-il du processus MA Le processus MA a des valeurs PACF non nulles pour un nombre (théoriquement) infini de décalages. Exemple 4: MA (1) Identifier les nombres de termes AR ou MA dans un modèle ARIMA Les parcelles ACF et PACF: Après qu'une série temporelle a été stationnaire par différenciation, la prochaine étape dans l'ajustement d'un modèle ARIMA est de déterminer si AR ou MA termes Sont nécessaires pour corriger toute autocorrélation qui reste dans la série différenciée. Bien sûr, avec des logiciels comme Statgraphics, vous pouvez simplement essayer différentes combinaisons de termes et voir ce qui fonctionne le mieux. Mais il existe un moyen plus systématique de le faire. En examinant les diagrammes de la fonction d'autocorrélation (ACF) et de l'autocorrélation partielle (PACF) des séries différenciées, vous pouvez tenter d'identifier le nombre de termes AR et / ou MA qui sont nécessaires. Vous êtes déjà familiarisé avec la trame ACF: il s'agit simplement d'un diagramme à barres des coefficients de corrélation entre une série chronologique et des décalages de lui-même. Le tracé PACF est une courbe des coefficients de corrélation partielle entre les séries et les décalages de lui-même. En général, la corrélation quotpartiale entre deux variables est la quantité de corrélation entre elles qui n'est pas expliquée par leurs corrélations mutuelles avec un ensemble spécifié d'autres variables. Par exemple, si l'on fait régresser une variable Y sur d'autres variables X1, X2 et X3, la corrélation partielle entre Y et X3 est la quantité de corrélation entre Y et X3 qui n'est pas expliquée par leurs corrélations communes avec X1 et X2. Cette corrélation partielle peut être calculée comme la racine carrée de la réduction de variance obtenue en ajoutant X3 à la régression de Y sur X1 et X2. Une auto-corrélation partielle est la quantité de corrélation entre une variable et un retard de lui-même qui n'est pas expliqué par des corrélations à tous les bas-ordre-lags. L'autocorrélation d'une série temporelle Y au retard 1 est le coefficient de corrélation entre Y t et Y t-1. Qui est vraisemblablement aussi la corrélation entre Y t -1 et Y t -2. Mais si Y t est corrélée avec Y t -1. Et Y t -1 est également corrélé avec Y t -2. Alors nous devrions aussi nous attendre à trouver une corrélation entre Y t et Y t-2. En fait, la quantité de corrélation que nous devrions nous attendre au lag 2 est précisément le carré de la corrélation lag-1. Ainsi, la corrélation au décalage 1 est quoti - dienne du retard 2 et, vraisemblablement, du retard supérieur. L'autocorrélation partielle au retard 2 est donc la différence entre la corrélation réelle au décalage 2 et la corrélation attendue due à la propagation de la corrélation au décalage 1. Voici la fonction d'autocorrélation (ACF) de la série UNITS avant toute différenciation: Les autocorrélations sont significatives pour un grand nombre de décalages - mais peut-être que les autocorrélations au retard 2 et au-dessus sont simplement dues à la propagation de l'autocorrélation au décalage 1. Ceci est confirmé par le tracé PACF: Spike seulement au lag 1, ce qui signifie que toutes les autocorrélations d'ordre supérieur sont effectivement expliqués par l'autocorrélation lag-1. Les autocorrélations partielles à tous les décalages peuvent être calculées en ajustant une succession de modèles autorégressifs avec un nombre croissant de décalages. En particulier, l'autocorrélation partielle au décalage k est égale au coefficient AR (k) estimé dans un modèle autorégressif avec k termes - c'est-à-dire. Un modèle de régression multiple dans lequel Y est régressé sur GAL (Y, 1), GAL (Y, 2), etc. jusqu'à GAL (Y, k). Ainsi, par simple inspection du PACF, vous pouvez déterminer le nombre de termes AR que vous devez utiliser pour expliquer le modèle d'autocorrélation dans une série temporelle: si l'autocorrélation partielle est significative au décalage k et non significative à tout retard d'ordre supérieur, c'est-à-dire. Si le PACF quotcuts offquot au décalage k - alors cela suggère que vous devriez essayer d'adapter un modèle autorégressif d'ordre k Le PACF de la série UNITS fournit un exemple extrême du phénomène de coupure: il a une très grande pointe au retard 1 Et aucun autre pic significatif, indiquant qu'en l'absence de différenciation, un modèle AR (1) devrait être utilisé. Cependant, le terme AR (1) dans ce modèle s'avérera équivalent à une première différence, car le coefficient AR (1) estimé (qui est la hauteur du pic PACF au décalage 1) sera presque exactement égal à 1 L'équation de prévision pour un modèle AR (1) pour une série Y sans ordres de différenciation est: Si le coefficient d'AR (1) 981 1 dans cette équation est égal à 1, il équivaut à prédire que la première différence De Y est constante - ie Il équivaut à l'équation du modèle de marche aléatoire avec croissance: Le PACF de la série UNITS nous dit que, si nous ne la différence, alors nous devrions adapter un modèle AR (1) qui se révèlera être équivalent à la prise Une première différence. En d'autres termes, il nous dit que UNITS a vraiment besoin d'un ordre de différenciation pour être stationnaire. Signatures AR et MA: Si le PACF affiche une coupure brusque alors que l'ACF décroît plus lentement (c'est-à-dire a des pointes significatives à des décalages plus élevés), on dit que la série stationarisée affiche une signature quotAR, signifiant que le motif d'autocorrélation peut être expliqué plus facilement En ajoutant des termes AR plutôt qu'en ajoutant des termes MA. Vous constaterez probablement qu'une signature AR est couramment associée à une autocorrélation positive au décalage 1 - c'est-à-dire. Il tend à se poser en série qui sont légèrement sous-différenciés. La raison en est qu'un terme AR peut agir comme une différence quotpartiale dans l'équation de prévision. Par exemple, dans un modèle AR (1), le terme AR agit comme une première différence si le coefficient autorégressif est égal à 1, il ne fait rien si le coefficient autorégressif est nul et il agit comme une différence partielle si le coefficient est entre 0 et 1. Ainsi, si la série est légèrement sous-différenciée - ie Si le modèle non stationnaire d'autocorrélation positive n'a pas été complètement éliminé, il fera des quotas pour une différence partielle en affichant une signature AR. Par conséquent, nous avons la règle empirique suivante pour déterminer quand ajouter des termes AR: Règle 6: Si le PACF de la série différenciée affiche une coupure aiguë et / ou l'autocorrélation lag-1 est positive - ie. Si la série apparaît légèrement quotunderdifferencedquot - alors envisager d'ajouter un terme AR pour le modèle. Le décalage auquel le PACF coupe est le nombre indiqué de termes AR. En principe, tout modèle d'autocorrélation peut être supprimé d'une série stationnaire en ajoutant suffisamment de termes autorégressifs (décalages de la série stationnaire) à l'équation de prévision, et le PACF indique combien de tels termes sont vraisemblablement nécessaires. Cependant, ce n'est pas toujours la manière la plus simple d'expliquer un modèle donné d'autocorrélation: il est parfois plus efficace d'ajouter des termes MA (retards des erreurs de prévision). La fonction d'autocorrélation (ACF) joue le même rôle pour les termes MA que le PACF joue pour les termes AR - c'est-à-dire que l'ACF vous indique combien de termes MA sont susceptibles d'être nécessaires pour supprimer l'autocorrélation restante de la série différenciée. Si l'autocorrélation est significative au décalage k mais pas à des décalages plus élevés, c'est-à-dire. Si l'ACF quotcuts offquot à lag k - cela indique que k termes exactement k MA doit être utilisé dans l'équation de prévision. Dans ce dernier cas, nous disons que la série stationnaire présente une signature quotMA, ce qui signifie que le modèle d'autocorrélation peut être expliqué plus facilement en ajoutant des termes MA que par l'ajout de termes AR. Une signature MA est couramment associée à une autocorrélation négative au décalage 1 - c'est-à-dire. Il tend à se poser en série qui sont légèrement plus différenciés. La raison pour cela est qu'un terme MA peut quotparlement annuler un ordre de différenciation dans l'équation de prévision. Pour le voir, rappelez-vous qu'un modèle ARIMA (0,1,1) sans constante est équivalent à un modèle Simple Exponential Smoothing. L'équation de prévision pour ce modèle est celle où le coefficient MA (1) 952 1 correspond à la quantité 1 - 945 dans le modèle SES. Si 952 1 est égal à 1, ceci correspond à un modèle SES avec 945 0, qui est juste un modèle CONSTANT parce que la prévision n'est jamais mise à jour. Cela signifie que lorsque 952 1 est égal à 1, il est effectivement annuler l'opération de différenciation qui permet habituellement à la prévision SES de se ré-ancrer sur la dernière observation. D'autre part, si le coefficient de la moyenne mobile est égal à 0, ce modèle se réduit à un modèle de marche aléatoire - c'est-à-dire. Il laisse l'opération de différenciation seule. Donc, si 952 1 est quelque chose de plus grand que 0, c'est comme si nous annulions partiellement un ordre de différenciation. Si la série est déjà légèrement sur-différenciée - c'est-à-dire. Si l'autocorrélation négative a été introduite - alors il sera quotask pourquot une différence d'être partiellement annulée par l'affichage d'une signature MA. (Il y a beaucoup de bruits de bras ici.) Une explication plus rigoureuse de cet effet se trouve dans le document de la Structure mathématique des modèles ARIMA.) D'où la règle additionnelle suivante: Règle 7: Si l'ACF de la série différenciée affiche un La coupure aiguë et / ou l'autocorrélation de lag-1 est négative. Si la série apparaît légèrement quotoverdifferencedquot - alors envisager d'ajouter un terme MA pour le modèle. Le décalage auquel l'ACF coupe le nombre indiqué de termes MA. Un modèle pour la série UNITS - ARIMA (2,1,0): Nous avons précédemment déterminé que la série UNITS avait besoin (au moins) d'un ordre de différenciation non saisonnière pour être stationnaire. Après avoir pris une différence non saisonnière - c'est-à-dire. (A) la corrélation au décalage 1 est significative et positive, et (b) le PACF montre un quotcutoff plus net que L'ACF. En particulier, le PACF n'a que deux pointes significatives, alors que le FCA en compte quatre. Ainsi, selon la règle 7 ci-dessus, la série différenciée affiche une signature AR (2). Si l'on fixe ainsi l'ordre du terme AR à 2 - i. e. Un modèle ARIMA (2,1,0) - on obtient les parcelles ACF et PACF suivantes pour les résidus: L'autocorrélation aux décalages cruciaux - à savoir les retards 1 et 2 - a été éliminée et il n'y a pas de modèle discernable Dans des décalages d'ordre supérieur. Le schéma chronologique des résidus montre une tendance légèrement inquiétante à s'éloigner de la moyenne: Cependant, le rapport de synthèse d'analyse montre que le modèle fonctionne néanmoins assez bien au cours de la période de validation, les deux coefficients AR sont significativement différents de zéro et la norme L'écart des résidus a été réduit de 1,54371 à 1,4215 (près de 10) par l'addition des termes AR. De plus, il n'y a pas de signe de racine quotunit parce que la somme des coefficients AR (0.2522540.195572) n'est pas proche de 1. (Les racines unitaires sont discutées plus en détail ci-dessous). Dans l'ensemble, cela semble être un bon modèle . Les prévisions (non transformées) pour le modèle montrent une tendance linéaire à la hausse projetée dans le futur: La tendance des prévisions à long terme est due au fait que le modèle inclut une différence non saisonnière et un terme constant: ce modèle est fondamentalement une marche aléatoire avec Croissance plus fine par l'ajout de deux termes autorégressifs - c'est-à-dire Deux décalages de la série différenciée. La pente des prévisions à long terme (c'est-à-dire l'augmentation moyenne d'une période à l'autre) est égale au terme moyen dans le résumé du modèle (0,467566). L'équation de prévision est: où 956 est le terme constant dans le résumé du modèle (0.258178), 981 1 est le coefficient AR (1) (0.25224) et 981 2 le coefficient AR (2) (0.195572). Moyenne versus constante: En général, le terme quotmeanquot dans la sortie d'un modèle ARIMA se réfère à la moyenne des séries différenciées (c'est-à-dire la tendance moyenne si l'ordre de différenciation est égal à 1), tandis que le quotconstant est le terme constant qui apparaît Sur le côté droit de l'équation de prévision. Les termes moyens et constants sont liés par l'équation: CONSTANT MEAN (1 moins la somme des coefficients AR). Dans ce cas, nous avons 0.258178 0.467566 (1 - 0.25224 - 0.195572) Modèle alternatif pour la série UNITS - ARIMA (0,2,1): Rappelons que lorsque nous avons commencé à analyser la série UNITS, nous n'étions pas entièrement sûrs de la Ordre correct de différenciation à utiliser. Un ordre de différenciation non saisonnière a donné l'écart type le plus bas (et un modèle d'autocorrélation positive douce), tandis que deux ordres de différenciation non saisonnière ont donné un graphique de séries chronologiques plus stationnaires (mais avec une forte autocorrélation négative). Voici l'ACF et le PACF de la série avec deux différences non saisonnières: La seule pointe négative au décalage 1 dans l'ACF est une signature MA (1), conformément à la Règle 8 ci-dessus. Ainsi, si nous utilisions 2 différences non saisonnières, nous voudrions également inclure un terme MA (1), produisant un modèle ARIMA (0,2,1). Selon la règle 5, nous voudrions également supprimer le terme constant. On notera que l'écart-type de bruit blanc estimé (RMSE) est seulement très légèrement plus élevé pour ce modèle que le précédent (1,46301 ici par rapport à 1,45215 auparavant). L'équation de prévision pour ce modèle est: où theta-1 est le coefficient MA (1). Rappelons que ceci est semblable à un modèle Linear Exponential Smoothing, avec le coefficient MA (1) correspondant à la quantité 2 (1-alpha) dans le modèle LES. Le coefficient de MA (1) de 0,76 dans ce modèle suggère qu'un modèle de LES avec l'alpha dans le voisinage de 0,72 serait à peu près aussi bien. En fait, lorsqu'un modèle ERP est adapté aux mêmes données, la valeur optimale de l'alpha s'établit autour de 0,61, ce qui n'est pas trop loin. Voici un rapport de comparaison de modèles qui montre les résultats de l'ajustement du modèle ARIMA (2,1,0) avec constante, du modèle ARIMA (0,2,1) sans constante, et du modèle LES: Les trois modèles sont pratiquement identiques La période d'estimation, et le modèle ARIMA (2,1,0) avec constante apparaît légèrement meilleur que les deux autres dans la période de validation. Sur la seule base de ces résultats statistiques, il serait difficile de choisir parmi les trois modèles. Cependant, si nous traçons les prévisions à long terme du modèle ARIMA (0,2,1) sans constante (qui sont essentiellement les mêmes que celles du modèle LES), nous voyons une différence significative par rapport au modèle précédent: Les prévisions affichent une tendance à la hausse moins forte que celle du modèle précédent, car la tendance locale vers la fin de la série est légèrement inférieure à la tendance moyenne sur toute la série, mais les intervalles de confiance augmentent beaucoup plus rapidement. Le modèle avec deux ordres de différenciation suppose que la tendance dans la série est variable dans le temps, donc il considère l'avenir lointain pour être beaucoup plus incertain que le modèle avec un seul ordre de différenciation. Quel modèle choisir? Cela dépend des hypothèses que nous sommes à l'aise de faire en ce qui concerne la constance de la tendance dans les données. Le modèle avec un seul ordre de différenciation suppose une tendance moyenne constante - il s'agit essentiellement d'un modèle de randonnée aléatoire fin avec croissance - et il fait donc des projections de tendance relativement conservatrice. Il est également assez optimiste quant à l'exactitude avec laquelle il peut prévoir plus d'une période à venir. Le modèle avec deux ordres de différenciation suppose une tendance locale variable dans le temps - il s'agit essentiellement d'un modèle de lissage exponentiel linéaire - et ses projections de tendance sont un peu plus volage. En règle générale, dans ce genre de situation, je recommande de choisir le modèle avec l'ordre inférieur de différenciation, d'autres choses étant à peu près égales. En pratique, les modèles aléatoire ou simple-exponentiel-lissage semblent souvent mieux fonctionner que les modèles de lissage exponentiel linéaire. Modèles mixtes: Dans la plupart des cas, le meilleur modèle résulte d'un modèle qui utilise soit des termes AR ou seulement des termes MA, bien que dans certains cas un modèle quotmixedquot avec des termes AR et MA puisse fournir le meilleur ajustement aux données. Cependant, il faut faire preuve de prudence lors de l'installation de modèles mixtes. Il est possible pour un terme AR et un terme MA d'annuler les effets des autres. Même si les deux peuvent paraître significatifs dans le modèle (comme le jugent les statistiques t de leurs coefficients). Ainsi, supposons, par exemple, que le modèle quotcorrectquot pour une série temporelle soit un modèle ARIMA (0,1,1), mais plutôt un modèle ARIMA (1,1,2) - c'est-à-dire. Vous incluez un terme AR supplémentaire et un terme MA supplémentaire. Ensuite, les termes supplémentaires peuvent finir par apparaître significative dans le modèle, mais en interne, ils peuvent être simplement travailler les uns contre les autres. Les estimations de paramètres résultantes peuvent être ambiguës, et le processus d'estimation de paramètre peut prendre de très nombreuses (par exemple plus de 10) itérations à converger. Par conséquent: Règle 8: Il est possible pour un terme AR et un terme MA d'annuler les autres effets, donc si un modèle mixte AR-MA semble correspondre aux données, essayez aussi un modèle avec un AR moins terme et un moins MA terme - en particulier si les estimations de paramètres dans le modèle d'origine nécessitent plus de 10 itérations pour converger. Pour cette raison, les modèles ARIMA ne peuvent pas être identifiés par une approche quotback stepwisequot qui inclut les termes AR et MA. En d'autres termes, vous ne pouvez pas commencer par inclure plusieurs termes de chaque type, puis jeter ceux dont les coefficients estimés ne sont pas significatifs. Au lieu de cela, vous suivez normalement une approche quotforward stepwisequot, en ajoutant des termes d'un type ou l'autre comme indiqué par l'apparition des tracés ACF et PACF. Racines unitaires: Si une série est grossièrement sous-ou surdifférenciée - c'est-à-dire. Si un ordre entier de différenciation doit être ajouté ou annulé, cela est souvent signalé par une racine quotunit dans les coefficients AR ou MA estimés du modèle. Un modèle AR (1) est dit avoir une racine unitaire si le coefficient estimé AR (1) est presque exactement égal à 1. (Par citation exactement égale, je veux vraiment dire pas significativement différent de. En termes de coefficients propre erreur standard. ) Lorsque cela se produit, cela signifie que le terme AR (1) imite exactement une première différence, auquel cas vous devez supprimer le terme AR (1) et ajouter un ordre de différenciation à la place. (C'est exactement ce qui se produirait si vous avez équipé un modèle AR (1) à la série UNITS non différenciée, comme indiqué précédemment). Dans un modèle d'ordre supérieur, une racine unitaire existe dans la partie AR du modèle si la somme de Les coefficients AR sont exactement égaux à 1. Dans ce cas, vous devez réduire l'ordre du terme AR par 1 et ajouter un ordre de différenciation. Une série temporelle avec une racine unitaire dans les coefficients AR est non stationnaire - ie. Il faut un ordre plus élevé de différenciation. Règle 9: S'il y a une racine unitaire dans la partie AR du modèle - c'est-à-dire. Si la somme des coefficients AR est presque exactement 1 - vous devriez réduire le nombre de termes AR par un et augmenter l'ordre de différenciation par un. De même, on dit qu'un modèle MA (1) a une racine unitaire si le coefficient MA (1) estimé est exactement égal à 1. Lorsque cela se produit, cela signifie que le terme MA (1) annule exactement une première différence, en Dans ce cas, vous devez supprimer le terme MA (1) et également réduire l'ordre de différenciation par un. Dans un modèle MA d'ordre supérieur, une racine unitaire existe si la somme des coefficients MA est exactement égale à 1. Règle 10: S'il y a une racine unitaire dans la partie MA du modèle - c.-à-d. Si la somme des coefficients MA est presque exactement 1 - vous devriez réduire le nombre de termes MA par un et réduire l'ordre de différenciation par un. Par exemple, si vous ajustez un modèle de lissage exponentiel linéaire (un modèle ARIMA (0,2,2)) quand un simple modèle de lissage exponentiel (un modèle ARIMA (0,1,1) aurait été suffisant, La somme des deux coefficients MA est très près égale à 1. En réduisant l'ordre MA et l'ordre de différenciation par un chacun, vous obtenez le modèle SES plus approprié. Un modèle de prévision avec une racine unitaire dans les coefficients estimés de MA est dit noninvertible. Ce qui signifie que les résidus du modèle ne peuvent pas être considérés comme des estimations du bruit aléatoire quottruequot qui a généré la série chronologique. Un autre symptôme d'une racine unitaire est que les prévisions du modèle peuvent quotblow upquot ou se comportent autrement bizarrement. Si le graphique chronologique des prévisions à long terme du modèle semble étrange, vérifiez les coefficients estimés de votre modèle pour la présence d'une racine unitaire. Règle 11: Si les prévisions à long terme semblent erratiques ou instables, il peut y avoir une racine unitaire dans les coefficients AR ou MA. Aucun de ces problèmes n'est apparu avec les deux modèles ici, car nous avons pris soin de commencer par des ordres plausibles de différenciation et un nombre approprié de coefficients AR et MA en étudiant les modèles ACF et PACF. On trouvera des descriptions plus détaillées des racines unitaires et des effets d'annulation entre les termes AR et MA dans le document Structure mathématique des modèles ARIMA. Modèles ARIMA saisonniers généraux: (0,1,1) x (0,1,1) etc. Modélisation ARIMA saisonnière: La partie saisonnière d'un modèle ARIMA a la même structure que la partie non saisonnière: elle peut avoir un facteur AR, un facteur MA, ou un ordre de différenciation. Dans la partie saisonnière du modèle, tous ces facteurs fonctionnent sur des multiples de lag s (le nombre de périodes dans une saison). Un modèle ARIMA saisonnier est classé comme un modèle ARIMA (p, d, q) x (P, D, Q), où Pnombre de termes saisonniers autorégressifs (SAR), Dnombre de variations saisonnières, Qnombre de termes saisonniers mobiles (SMA) En identifiant un modèle saisonnier, la première étape consiste à déterminer si une différence saisonnière est nécessaire, en plus ou peut-être au lieu d'une différence non saisonnière. Vous devriez regarder les parcelles chronologiques et les parcelles ACF et PACF pour toutes les combinaisons possibles de 0 ou 1 différence non saisonnière et 0 ou 1 différence saisonnière. Attention: ne jamais utiliser plus d'une différence saisonnière, ni plus de deux différences totales (saisonnières et non saisonnières combinées). Si le schéma saisonnier est à la fois solide et stable dans le temps (p. Ex., Haut en été et faible en hiver, ou vice versa), vous devriez probablement utiliser une différence saisonnière, peu importe si vous utilisez une différence non saisonnière D'éviter que le schéma saisonnier ne se retrouve dans les prévisions à long terme. Règle 12: Si la série a un schéma saisonnier fort et cohérent, alors vous devez utiliser un ordre de différenciation saisonnière - mais n'utilisez jamais plus d'un ordre de différenciation saisonnière ou plus de 2 Ordres de différenciation totale (saisonnier et saisonnier). La signature de pure SAR ou pure SMA comportement est similaire à la signature de pur AR ou pur MA comportement, sauf que le modèle apparaît à travers multiples de retard dans le ACF et PACF. Par exemple, un processus SAR pur (1) a des pointes dans l'ACF aux décalages s, 2s, 3s, etc. alors que le PACF coupe après le laps. A l'inverse, un processus SMA pur (1) a des pointes dans le PACF aux décalages s, 2s, 3s, etc. alors que l'ACF coupe après le laps. Une signature SAR se produit généralement lorsque l'autocorrélation à la période saisonnière est positive, alors qu'une signature SMA se produit généralement lorsque l'autocorrélation saisonnière est négative. Donc: Règle 13: Si l'autocorrélation à la période saisonnière est positive. Envisager d'ajouter un terme SAR au modèle. Si l'autocorrélation à la période saisonnière est négative. Envisagez d'ajouter un terme SMA au modèle. Essayez de ne pas mélanger les termes SAR et SMA dans le même modèle et évitez d'utiliser plus d'un des deux types. Habituellement, un terme SAR (1) ou SMA (1) est suffisant. Vous rencontrerez rarement un processus SAR (2) ou SMA (2) authentique et auront encore plus rarement assez de données pour estimer 2 ou plus de coefficients saisonniers sans que l'algorithme d'estimation n'entre dans une boucle quotfeedback. Bien qu'un modèle ARIMA saisonnier semble avoir Seulement quelques paramètres, rappelez-vous que backforecasting nécessite l'estimation d'une ou deux saisons la valeur de paramètres implicites pour l'initialiser. Par conséquent, vous devez avoir au moins 4 ou 5 saisons de données pour s'adapter à un modèle saisonnier ARIMA. Le modèle ARIMA saisonnier le plus couramment utilisé est probablement le modèle (0,1,1) x (0,1,1) - c'est-à-dire. Un modèle MA (1) xSMA (1) avec une différence saisonnière et non saisonnière. Il s'agit essentiellement d'un modèle quotseasonal exponentiel de smoothingquot. Lorsque les modèles ARIMA saisonniers sont adaptés aux données enregistrées, ils sont capables de suivre un modèle saisonnier multiplicatif. Exemple: la série AUTOSALE revisitée Rappelons que nous avions précédemment prévu la série de vente au détail de véhicules automobiles en utilisant une combinaison de déflation, d'ajustement saisonnier et de lissage exponentiel. Essayons maintenant d'adapter la même série aux modèles saisonniers ARIMA, en utilisant le même échantillon de données de janvier 1970 à mai 1993 (281 observations). Comme avant, nous allons travailler avec les ventes d'automobiles dégonflées - c'est-à-dire. Nous utiliserons la série AUTOSALECPI comme variable d'entrée. Voici le graphe de la série temporelle et les tracés ACF et PACF de la série originale, qui sont obtenus dans la procédure de prévision en traçant les quotresidualsquot d'un modèle ARIMA (0,0,0) x (0,0,0) avec constante: Le modèle de pont quotsuspension dans l'ACF est typique d'une série à la fois non stationnaire et fortement saisonnière. Il est clair que nous avons besoin d'au moins un ordre de différenciation. Si nous prenons une différence non saisonnière, les tracés correspondants sont les suivants: La série différenciée (les résidus d'un modèle aléatoire-marche-croissance) semble plus ou moins stationnaire, mais il existe encore une très forte autocorrélation à la période saisonnière (Retard 12). Puisque le schéma saisonnier est fort et stable, nous savons (à partir de la Règle 12) que nous voulons utiliser un ordre de différenciation saisonnière dans le modèle. Voici ce que l'image ressemble après une différence saisonnière (seulement): La série saisonnièrement différenciée montre un très fort modèle d'autocorrélation positive, comme nous le rappelons de notre tentative antérieure d'adapter un modèle de randonnée aléatoire saisonnière. Cela pourrait être une signature quotAR - ou il pourrait signaler la nécessité d'une autre différence. Si nous prenons à la fois une différence saisonnière et non saisonnière, les résultats suivants sont obtenus: Ce sont bien sûr les résidus du modèle de tendance aléatoire saisonnière que nous avons adapté aux données sur les ventes d'automobiles plus tôt. Nous voyons maintenant les signes révélateurs d'une légère surdifférence. Les pics positifs de l'ACF et du PACF sont devenus négatifs. Quel est l'ordre correct de différenciation? Un autre élément d'information qui pourrait être utile est un calcul des statistiques d'erreur de la série à chaque niveau de différenciation. Nous pouvons les calculer en ajustant les modèles ARIMA correspondants dans lesquels seule la différenciation est utilisée: Les plus petites erreurs, à la fois dans la période d'estimation et la période de validation, sont obtenues par le modèle A, qui utilise une différence de chaque type. Cela, avec l'apparition des parcelles ci-dessus, suggère fortement que nous devrions utiliser à la fois une différence saisonnière et non saisonnière. Notons que, sauf pour le terme constant gratuit, le modèle A est le modèle de tendance aléatoire saisonnière (SRT), tandis que le modèle B est le modèle de randonnée aléatoire saisonnière (SRW). Comme nous l'avons noté plus tôt lors de la comparaison de ces modèles, le modèle SRT semble s'inscrire mieux que le modèle SRW. Dans l'analyse qui suit, nous tenterons d'améliorer ces modèles en ajoutant des termes ARIMA saisonniers. Retournez au début de la page. The often-used ARIMA(0,1,1)x(0,1,1) model: SRT model plus MA(1) and SMA(1) terms Returning to the last set of plots above, notice that with one difference of each type there is a negative spike in the ACF at lag 1 and also a negative spike in the ACF at lag 12 . whereas the PACF shows a more gradual quotdecayquot pattern in the vicinity of both these lags. By applying our rules for identifying ARIMA models (specifically, Rule 7 and Rule 13), we may now conclude that the SRT model would be improved by the addition of an MA(1) term and also an SMA(1) term. Also, by Rule 5, we exclude the constant since two orders of differencing are involved. If we do all this, we obtain the ARIMA(0,1,1)x(0,1,1) model . which is the most commonly used seasonal ARIMA model . Its forecasting equation is: where 952 1 is the MA(1) coefficient and 920 1 ( capital theta-1) is the SMA(1) coefficient. Notice that this is just the seasonal random trend model fancied-up by adding multiples of the errors at lags 1, 12, and 13. Also, notice that the coefficient of the lag-13 error is the product of the MA(1) and SMA(1) coefficients. This model is conceptually similar to the Winters model insofar as it effectively applies exponential smoothing to level, trend, and seasonality all at once, although it rests on more solid theoretical foundations, particularly with regard to calculating confidence intervals for long-term forecasts. Its residual plots in this case are as follows: Although a slight amount of autocorrelation remains at lag 12, the overall appearance of the plots is good. The model fitting results show that the estimated MA(1) and SMA(1) coefficients (obtained after 7 iterations) are indeed significant: The forecasts from the model resemble those of the seasonal random trend model--i. e. they pick up the seasonal pattern and the local trend at the end of the series--but they are slightly smoother in appearance since both the seasonal pattern and the trend are effectively being averaged (in a exponential-smoothing kind of way) over the last few seasons: What is this model really doing You can think of it in the following way. First it computes the difference between each month8217s value and an 8220exponentially weighted historical average8221 for that month that is computed by applying exponential smoothing to values that were observed in the same month in previous years, where the amount of smoothing is determined by the SMA(1) coefficient. Then it applies simple exponential smoothing to these differences in order to predict the deviation from the historical average that will be observed next month. The value of the SMA(1) coefficient near 1.0 suggests that many seasons of data are being used to calculate the historical average for a given month of the year. Recall that an MA(1) coefficient in an ARIMA(0,1,1) model corresponds to 1-minus-alpha in the corresponding exponential smoothing model, and that the average age of the data in an exponential smoothing model forecast is 1alpha. The SMA(1) coefficient has a similar interpretation with respect to averages across seasons. Here its value of 0.91 suggests that the average age of the data used for estimating the historical seasonal pattern is a little more than 10 years (nearly half the length of the data set), which means that an almost constant seasonal pattern is being assumed. The much smaller value of 0.5 for the MA(1) coefficient suggests that relatively little smoothing is being done to estimate the current deviation from the historical average for the same month, so next month8217s predicted deviation from its historical average will be close to the deviations from the historical average that were observed over the last few months. The ARIMA(1,0,0)x(0,1,0) model with constant: SRW model plus AR(1) term The previous model was a Seasonal Random Trend (SRT) model fine-tuned by the addition of MA(1) and SMA(1) coefficients. An alternative ARIMA model for this series can be obtained by substituting an AR(1) term for the nonseasonal difference--i. e. by adding an AR(1) term to the Seasonal Random Walk (SRW) model. This will allow us to preserve the seasonal pattern in the model while lowering the total amount of differencing, thereby increasing the stability of the trend projections if desired. (Recall that with one seasonal difference alone, the series did show a strong AR(1) signature.) If we do this, we obtain an ARIMA(1,0,0)x(0,1,0) model with constant, which yields the following results: The AR(1) coefficient is indeed highly significant, and the RMSE is only 2.06, compared to 3.00 for the SRW model (Model B in the comparison report above). The forecasting equation for this model is: The additional term on the right-hand-side is a multiple of the seasonal difference observed in the last month, which has the effect of correcting the forecast for the effect of an unusually good or bad year. Here 981 1 denotes the AR(1) coefficient, whose estimated value is 0.73. Thus, for example, if sales last month were X dollars ahead of sales one year earlier, then the quantity 0.73X would be added to the forecast for this month. 956 denotes the CONSTANT in the forecasting equation, whose estimated value is 0.20. The estimated MEAN, whose value is 0.75, is the mean value of the seasonally differenced series, which is the annual trend in the long-term forecasts of this model. The constant is (by definition) equal to the mean times 1 minus the AR(1) coefficient: 0.2 0.75(1 8211 0.73). The forecast plot shows that the model indeed does a better job than the SRW model of tracking cyclical changes (i. e. unusually good or bad years): However, the MSE for this model is still significantly larger than what we obtained for the ARIMA(0,1,1)x(0,1,1) model. If we look at the plots of residuals, we see room for improvement. The residuals still show some sign of cyclical variation: The ACF and PACF suggest the need for both MA(1) and SMA(1) coefficients: An improved version: ARIMA(1,0,1)x(0,1,1) with constant If we add the indicated MA(1) and SMA(1) terms to the preceding model, we obtain an ARIMA(1,0,1)x(0,1,1) model with constant, whose forecasting equation is This is nearly the same as the ARIMA(0,1,1)x(0,1,1) model except that it replaces the nonseasonal difference with an AR(1) term (a quotpartial differencequot) and it incorporates a constant term representing the long-term trend. Hence, this model assumes a more stable trend than the ARIMA(0,1,1)x(0,1,1) model, and that is the principal difference between them. The model-fitting results are as follows: Notice that the estimated AR(1) coefficient ( 981 1 in the model equation) is 0.96, which is very close to 1.0 but not so close as to suggest that it absolutely ought to be replaced with a first difference: its standard error is 0.02, so it is about 2 standard errors from 1.0. The other statistics of the model (the estimated MA(1) and SMA(1) coefficients and error statistics in the estimation and validation periods) are otherwise nearly identical to those of the ARIMA(0,1,1)x(0,1,1) model. (The estimated MA(1) and SMA(1) coefficients are 0.45 and 0.91 in this model vs. 0.48 and 0.91 in the other.) The estimated MEAN of 0.68 is the predicted long-term trend (average annual increase). This is essentially the same value that was obtained in the (1,0,0)x(0,1,0)-with-constant model. The standard error of the estimated mean is 0.26, so the difference between 0.75 and 0.68 is not significant. If the constant was not included in this model, it would be a damped-trend model: the trend in its very-long-term forecasts would gradually flatten out. The point forecasts from this model look quite similar to those of the (0,1,1)x(0,1,1) model, because the average trend is similar to the local trend at the end of the series. However, the confidence intervals for this model widen somewhat less rapidly because of its assumption that the trend is stable. Notice that the confidence limits for the two-year-ahead forecasts now stay within the horizontal grid lines at 24 and 44, whereas those of the (0,1,1)x(0,1,1) model did not: Seasonal ARIMA versus exponential smoothing and seasonal adjustment: Now lets compare the performance the two best ARIMA models against simple and linear exponential smoothing models accompanied by multiplicative seasonal adjustment, and the Winters model, as shown in the slides on forecasting with seasonal adjustment: The error statistics for the one-period-ahead forecasts for all the models are extremely close in this case. It is hard to pick a 8220winner8221 based on these numbers alone. Return to top of page. What are the tradeoffs among the various seasonal models The three models that use multiplicative seasonal adjustment deal with seasonality in an explicit fashion--i. e. seasonal indices are broken out as an explicit part of the model. The ARIMA models deal with seasonality in a more implicit manner--we cant easily see in the ARIMA output how the average December, say, differs from the average July. Depending on whether it is deemed important to isolate the seasonal pattern, this might be a factor in choosing among models. The ARIMA models have the advantage that, once they have been initialized, they have fewer quotmoving partsquot than the exponential smoothing and adjustment models and as such they may be less likely to overfit the data. ARIMA models also have a more solid underlying theory with respect to the calculation of confidence intervals for longer-horizon forecasts than do the other models. There are more dramatic differences among the models with respect to the behavior of their forecasts and confidence intervals for forecasts more than 1 period into the future. This is where the assumptions that are made with respect to changes in the trend and seasonal pattern are very important. Between the two ARIMA models, one (model A) estimates a time-varying trend, while the other (model B) incorporates a long-term average trend. (We could, if we desired, flatten out the long-term trend in model B by suppressing the constant term.) Among the exponential-smoothing-plus-adjustment models, one (model C) assumes a flat trend, while the other (model D) assumes a time-varying trend. The Winters model (E) also assumes a time-varying trend. Models that assume a constant trend are relatively more confident in their long-term forecasts than models that do not, and this will usually be reflected in the extent to which confidence intervals for forecasts get wider at longer forecast horizons. Models that do not assume time-varying trends generally have narrower confidence intervals for longer-horizon forecasts, but narrower is not better unless this assumption is correct. The two exponential smoothing models combined with seasonal adjustment assume that the seasonal pattern has remained constant over the 23 years in the data sample, while the other three models do not. Insofar as the seasonal pattern accounts for most of the month-to-month variation in the data, getting it right is important for forecasting what will happen several months into the future. If the seasonal pattern is believed to have changed slowly over time, another approach would be to just use a shorter data history for fitting the models that estimate fixed seasonal indices. For the record, here are the forecasts and 95 confidence limits for May 1995 (24 months ahead) that are produced by the five models: The point forecasts are actually surprisingly close to each other, relative to the widths of all the confidence intervals. The SES point forecast is the lowest, because it is the only model that does not assume an upward trend at the end of the series. The ARIMA (1,0,1)x(0,1,1)c model has the narrowest confidence limits, because it assumes less time-variation in the parameters than the other models. Also, its point forecast is slightly larger than those of the other models, because it is extrapolating a long-term trend rather than a short-term trend (or zero trend). The Winters model is the least stable of the models and its forecast therefore has the widest confidence limits, as was apparent in the detailed forecast plots for the models. And the forecasts and confidence limits of the ARIMA(0,1,1)x(0,1,1) model and those of the LESseasonal adjustment model are virtually identical To log or not to log Something that we have not yet done, but might have, is include a log transformation as part of the model. Seasonal ARIMA models are inherently additive models, so if we want to capture a multiplicative seasonal pattern . we must do so by logging the data prior to fitting the ARIMA model. (In Statgraphics, we would just have to specify quotNatural Logquot as a modeling option--no big deal.) In this case, the deflation transformation seems to have done a satisfactory job of stabilizing the amplitudes of the seasonal cycles, so there does not appear to be a compelling reason to add a log transformation as far as long term trends are concerned. If the residuals showed a marked increase in variance over time, we might decide otherwise. There is still a question of whether the errors of these models have a consistent variance across months of the year . If they don8217t, then confidence intervals for forecasts might tend to be too wide or too narrow according to the season. The residual-vs-time plots do not show an obvious problem in this regard, but to be thorough, it would be good to look at the error variance by month. If there is indeed a problem, a log transformation might fix it. Return to top of page.


No comments:

Post a Comment