Sunday, 5 February 2017

Moyenne Mobile Toujours Stationnaire

4.2 Modèles stationnaires linéaires pour les séries temporelles où la variable aléatoire est appelée innovation parce qu'elle représente la partie de la variable observée qui est imprévisible compte tenu des valeurs passées. Le modèle général (4.4) suppose que c'est la sortie d'un filtre linéaire qui transforme les innovations passées, c'est-à-dire un processus linéaire. Cette hypothèse de linéarité est basée sur le théorème de décomposition de Wolds (Wold 1938) qui dit que tout processus discret de covariance stationnaire peut être exprimé comme la somme de deux processus non corrélés, où il est purement déterministe et est un processus purement indéterministe qui peut être écrit sous forme linéaire Somme du processus d'innovation: où est une séquence de variables aléatoires non corrélées en série avec moyenne nulle et variance commune. La condition est nécessaire pour la stationnarité. La formulation (4.4) est une reparamétrisation finie de la représentation infinie (4.5) - (4.6) à constante. Il est généralement écrit en termes de l'opérateur de décalage défini par, qui donne une expression plus courte: où l'opérateur de lag polynômes et sont appelés le polynôme et le polynôme, respectivement. Afin d'éviter la redondance des paramètres, nous supposons qu'il n'y a pas de facteurs communs entre les composants et les composants. Ensuite, nous étudierons le tracé de quelques séries temporelles générées par des modèles stationnaires dans le but de déterminer les principaux modèles de leur évolution temporelle. La figure 4.2 comprend deux séries générées à partir des processus stationnaires suivants calculés au moyen du quantrôme génarma: Figure 4.2: Séries temporelles générées par les modèles Comme prévu, les deux séries chronologiques se déplacent autour d'un niveau constant sans modification de variance due à la propriété stationnaire. De plus, ce niveau est proche de la moyenne théorique du processus, et la distance de chaque point à cette valeur est très rarement en dehors des limites. De plus, l'évolution de la série montre des déviations locales par rapport à la moyenne du processus, connue sous le nom de comportement de réversion moyenne qui caractérise les séries chronologiques stationnaires. Etudions avec quelques détails les propriétés des différents processus, en particulier la fonction d'autocovariance qui capture les propriétés dynamiques d'un processus stationnaire stochastique. Cette fonction dépend des unités de mesure, de sorte que la mesure habituelle du degré de linéarité entre les variables est le coefficient de corrélation. Dans le cas de processus stationnaires, le coefficient d'autocorrélation au décalage, dénoté par, est défini comme la corrélation entre et: Ainsi, la fonction d'autocorrélation (ACF) est la fonction d'autocovariance standardisée par la variance. Les propriétés de l'ACF sont les suivantes: Étant donné la propriété de symétrie (4.10), l'ACF est habituellement représentée au moyen d'un graphique à barres aux décalages non négatifs, appelé corrélogramme simple. Un autre outil utile pour décrire la dynamique d'un processus stationnaire est la fonction d'autocorrélation partielle (PACF). Le coefficient d'autocorrélation partielle au décalage mesure l'association linéaire entre et ajustée pour les effets des valeurs intermédiaires. Par conséquent, ce n'est que le coefficient dans le modèle de régression linéaire: Les propriétés du PACF sont équivalentes à celles de l'ACF (4.8) - (4.10) et il est facile de prouver que (Box et Jenkins 1976). Comme l'ACF, la fonction d'autocorrélation partielle ne dépend pas des unités de mesure et elle est représentée au moyen d'un graphique à barres aux décalages non négatifs appelé corrélogramme partiel. Les propriétés dynamiques de chaque modèle stationnaire déterminent une forme particulière des corrélogrammes. De plus, on peut montrer que, pour tout processus stationnaire, les deux fonctions, ACF et PACF, s'approchent de zéro alors que le retard tend vers l'infini. Les modèles ne sont pas toujours des processus stationnaires, il est donc nécessaire d'abord de déterminer les conditions de stationnarité. Il existe des sous-classes de modèles qui ont des propriétés particulières et nous les étudierons séparément. Ainsi, quand et, c'est un processus de bruit blanc. Quand, il s'agit d'un processus d'ordre pure moyenne mobile. , Et quand il s'agit d'un processus d'ordre autorégressif pur. . 4.2.1 Processus de bruit blanc Le modèle le plus simple est un processus de bruit blanc, où est une séquence de variables moyennes nulles non corrélées avec une variance constante. Il est noté par. Ce processus est stationnaire si sa variance est finie, puisque étant donné que: vérifie les conditions (4.1) - (4.3). De plus, elle n'est pas corrélée dans le temps, donc sa fonction d'autocovariance est: La figure 4.7 montre deux séries temporelles simulées générées à partir de processus avec une moyenne et des paramètres zéro et -0,7, respectivement. Le paramètre autorégressif mesure la persistance des événements passés dans les valeurs courantes. Par exemple, si un choc positif (ou négatif) affecte positivement (ou négativement) pendant une période de temps plus longue, plus la valeur de. Quand, la série se déplace plus approximativement autour de la moyenne due à l'alternance dans la direction de l'effet de, c'est-à-dire un choc qui affecte positivement dans le moment, a des effets négatifs sur, positive en. Le processus est toujours inversible et il est stationnaire lorsque le paramètre du modèle est contraint de se trouver dans la région. Pour démontrer l'état stationnaire, on écrira d'abord dans la forme moyenne mobile par substitution récursive de in (4.14): Figure 4.8: Corrélogrammes de population pour des processus C'est-à-dire une somme pondérée d'innovations passées. Les poids dépendent de la valeur du paramètre: quand, (ou), l'influence d'une innovation donnée augmente (ou diminue) dans le temps. En prenant les attentes à (4.15) pour calculer la moyenne du processus, on obtient: Donné que, le résultat est une somme de termes infinis qui converge pour toute valeur de seulement si, auquel cas. Un problème similaire apparaît lorsque nous calculons le deuxième moment. La preuve peut être simplifiée en supposant que, c'est - à - dire. Ensuite, la variance est: Encore une fois, la variance va à l'infini sauf pour, dans ce cas. Il est facile de vérifier que la moyenne et la variance explotent lorsque cette condition ne tient pas. La fonction d'autocovariance d'un processus stationnaire est donc la fonction d'autocorrélation pour le modèle stationnaire: c'est-à-dire que le corrélogramme présente une décroissance exponentielle avec des valeurs positives toujours si elle est positive et avec des oscillations négatives positives si elle est négative (voir figure 4.8). En outre, le taux de décroissance diminue à mesure que les augmentations, donc plus la valeur de la plus forte la corrélation dynamique dans le processus. Enfin, il ya une coupure dans la fonction d'autocorrélation partielle au premier décalage. Figure 4.9: Corrélogrammes de la population pour les processus On peut montrer que le processus général (Box et Jenkins 1976): Est stationnaire seulement si les racines de l'équation caractéristique du polynôme se situent en dehors du cercle unitaire. La moyenne d 'un modèle stationnaire est. Il est toujours inversible pour toutes les valeurs des paramètres. Son ACF passe à zéro exponentiellement lorsque les racines de sont réelles ou avec des fluctuations d'ondes sinusoïdales lorsqu'elles sont complexes. Son PACF a une coupure au décalage, c'est-à-dire. Des corrélogrammes pour des modèles plus complexes, tels que le, peut être vu dans la figure 4.9. Ils sont très semblables aux modèles quand les processus ont de vraies racines, mais prennent une forme très différente quand les racines sont complexes (voir la première paire de graphiques de la figure 4.9). 4.2.4 Modèle de moyenne mobile autorégressive Le modèle de moyenne mobile autorégressif général (ordre fini) des ordres, est: Modèles de lissage et de lissage exponentiels Comme première étape pour aller au-delà des modèles moyens, des modèles de marche aléatoire et des modèles de tendances linéaires, non saisonniers Les modèles et les tendances peuvent être extrapolés à l'aide d'un modèle de moyenne mobile ou de lissage. L'hypothèse de base derrière les modèles de moyenne et de lissage est que la série temporelle est localement stationnaire avec une moyenne lentement variable. Par conséquent, nous prenons une moyenne mobile (locale) pour estimer la valeur actuelle de la moyenne, puis nous l'utilisons comme prévision pour le proche avenir. Cela peut être considéré comme un compromis entre le modèle moyen et le modèle randonnée aléatoire sans dérive. La même stratégie peut être utilisée pour estimer et extrapoler une tendance locale. Une moyenne mobile est souvent appelée une version quotsmoothedquot de la série originale parce que la moyenne à court terme a pour effet de lisser les bosses dans la série d'origine. En ajustant le degré de lissage (la largeur de la moyenne mobile), on peut espérer trouver un équilibre optimal entre la performance des modèles de marche moyenne et aléatoire. Le modèle le plus simple de la moyenne est le. Moyenne mobile simple (également pondérée): La prévision de la valeur de Y à l'instant t1 qui est faite à l'instant t est égale à la moyenne simple des observations m les plus récentes: (Ici et ailleurs, je vais utiliser le symbole 8220Y-hat8221 pour me tenir Pour une prévision de la série temporelle Y faite le plus tôt possible par un modèle donné). Cette moyenne est centrée à la période t (m1) 2, ce qui implique que l'estimation de la moyenne locale aura tendance à se situer en deçà du vrai Valeur de la moyenne locale d'environ (m1) 2 périodes. Ainsi, nous disons que l'âge moyen des données dans la moyenne mobile simple est (m1) 2 par rapport à la période pour laquelle la prévision est calculée: c'est le temps pendant lequel les prévisions auront tendance à être en retard par rapport aux points de retournement dans les données . Par exemple, si vous faites la moyenne des 5 dernières valeurs, les prévisions seront environ 3 périodes en retard pour répondre aux points de retournement. Notez que si m1, le modèle de moyenne mobile simple (SMA) est équivalent au modèle de marche aléatoire (sans croissance). Si m est très grand (comparable à la longueur de la période d'estimation), le modèle SMA est équivalent au modèle moyen. Comme pour tout paramètre d'un modèle de prévision, il est courant d'ajuster la valeur de k afin d'obtenir le meilleur rapport entre les données, c'est-à-dire les erreurs de prévision les plus faibles en moyenne. Voici un exemple d'une série qui semble présenter des fluctuations aléatoires autour d'une moyenne lentement variable. Tout d'abord, essayons de l'adapter à un modèle de marche aléatoire, ce qui équivaut à une moyenne mobile simple de 1 terme: Le modèle de marche aléatoire répond très rapidement aux changements dans la série, mais en le faisant, il choisit une grande partie du quotnoise dans le Données (les fluctuations aléatoires) ainsi que le quotsignalquot (la moyenne locale). Si nous essayons plutôt une moyenne mobile simple de 5 termes, nous obtenons un ensemble plus lisse de prévisions: La moyenne mobile simple à 5 termes génère des erreurs beaucoup plus faibles que le modèle de marche aléatoire dans ce cas. L'âge moyen des données de cette prévision est de 3 ((51) 2), de sorte qu'il tend à être en retard par rapport aux points de retournement d'environ trois périodes. (Par exemple, un ralentissement semble avoir eu lieu à la période 21, mais les prévisions ne tournent pas jusqu'à plusieurs périodes plus tard.) Notez que les prévisions à long terme du modèle SMA sont une ligne droite horizontale, tout comme dans la marche aléatoire maquette. Ainsi, le modèle SMA suppose qu'il n'y a pas de tendance dans les données. Cependant, alors que les prévisions du modèle randonnée aléatoire sont tout simplement égales à la dernière valeur observée, les prévisions du modèle SMA sont égales à une moyenne pondérée des valeurs récentes. Les limites de confiance calculées par Statgraphics pour les prévisions à long terme de la moyenne mobile simple ne s'élargissent pas à mesure que l'horizon de prévision augmente. Ce n'est évidemment pas correct Malheureusement, il n'existe pas de théorie statistique sous-jacente qui nous indique comment les intervalles de confiance devraient élargir pour ce modèle. Cependant, il n'est pas trop difficile de calculer des estimations empiriques des limites de confiance pour les prévisions à plus long terme. Par exemple, vous pouvez créer une feuille de calcul dans laquelle le modèle SMA sera utilisé pour prévoir 2 étapes à venir, 3 étapes à venir, etc. dans l'exemple de données historiques. Vous pouvez ensuite calculer les écarts types des erreurs à chaque horizon de prévision, puis construire des intervalles de confiance pour les prévisions à long terme en ajoutant et en soustrayant des multiples de l'écart-type approprié. Si nous essayons une moyenne mobile simple de 9 termes, nous obtenons des prévisions encore plus lisses et plus d'un effet de retard: L'âge moyen est maintenant 5 périodes ((91) 2). Si l'on prend une moyenne mobile à 19 mois, l'âge moyen passe à 10: On remarque que les prévisions sont maintenant en retard par rapport aux points de retournement d'environ 10 périodes. Quelle quantité de lissage est la meilleure pour cette série Voici un tableau qui compare leurs statistiques d'erreur, incluant également une moyenne à 3 termes: Le modèle C, la moyenne mobile à 5 termes, donne la plus faible valeur de RMSE d'une petite marge sur les 3 À moyen terme et à moyen terme, et leurs autres statistiques sont presque identiques. Ainsi, parmi les modèles avec des statistiques d'erreur très similaires, nous pouvons choisir si nous préférerions un peu plus de réactivité ou un peu plus de souplesse dans les prévisions. Le modèle de la moyenne mobile simple décrit ci-dessus a la propriété indésirable de traiter les dernières k observations de manière égale et d'ignorer complètement toutes les observations précédentes. (Retourner au haut de la page.) Lissage Exponentiel Simple (moyenne exponentielle pondérée) Intuitivement, les données passées devraient être actualisées de façon plus graduelle - par exemple, l'observation la plus récente devrait prendre un peu plus de poids que la deuxième plus récente, et la deuxième plus récente devrait avoir un peu plus de poids que la 3ème plus récente, et bientôt. Le simple lissage exponentiel (SES) modèle accomplit cela. Soit 945 une constante de quotslacement constante (un nombre entre 0 et 1). Une façon d'écrire le modèle consiste à définir une série L qui représente le niveau actuel (c'est-à-dire la valeur moyenne locale) de la série estimée à partir des données jusqu'à présent. La valeur de L à l'instant t est calculée récursivement à partir de sa propre valeur précédente comme ceci: La valeur lissée actuelle est donc une interpolation entre la valeur lissée précédente et l'observation courante, où 945 contrôle la proximité de la valeur interpolée à la valeur la plus récente observation. La prévision pour la période suivante est simplement la valeur lissée actuelle: De manière équivalente, nous pouvons exprimer directement la prochaine prévision en fonction des prévisions précédentes et des observations précédentes, dans l'une des versions équivalentes suivantes. Dans la première version, la prévision est une interpolation entre la prévision précédente et l'observation précédente: Dans la deuxième version, la prévision suivante est obtenue en ajustant la prévision précédente dans la direction de l'erreur précédente par une fraction 945. est l'erreur faite à Temps t. Dans la troisième version, la prévision est une moyenne mobile exponentiellement pondérée (c'est-à-dire actualisée) avec le facteur d'actualisation 1-945: La version d'interpolation de la formule de prévision est la plus simple à utiliser si vous mettez en œuvre le modèle sur une feuille de calcul: Cellule unique et contient des références de cellule pointant vers la prévision précédente, l'observation précédente et la cellule où la valeur de 945 est stockée. Notez que si 945 1, le modèle SES est équivalent à un modèle de marche aléatoire (sans croissance). Si 945 0, le modèle SES est équivalent au modèle moyen, en supposant que la première valeur lissée est égale à la moyenne. (Retourner au haut de la page.) L'âge moyen des données dans la prévision de lissage exponentielle simple est de 1 945 par rapport à la période pour laquelle la prévision est calculée. (Ce n'est pas censé être évident, mais on peut facilement le montrer en évaluant une série infinie.) Par conséquent, la prévision moyenne mobile simple tend à être en retard par rapport aux points de retournement d'environ 1 945 périodes. Par exemple, lorsque 945 0,5 le lag est 2 périodes lorsque 945 0,2 le retard est de 5 périodes lorsque 945 0,1 le lag est de 10 périodes, et ainsi de suite. Pour un âge moyen donné (c'est-à-dire le décalage), le lissage exponentiel simple (SES) est un peu supérieur à la moyenne mobile simple (SMA), car il place relativement plus de poids sur l'observation la plus récente. Il est un peu plus sensible aux changements survenus dans le passé récent. Par exemple, un modèle SMA avec 9 termes et un modèle SES avec 945 0,2 ont tous deux une moyenne d'âge de 5 pour les données dans leurs prévisions, mais le modèle SES met plus de poids sur les 3 dernières valeurs que le modèle SMA et à la Un autre avantage important du modèle SES par rapport au modèle SMA est que le modèle SES utilise un paramètre de lissage qui est variable en continu, de sorte qu'il peut facilement être optimisé En utilisant un algorithme quotsolverquot pour minimiser l'erreur quadratique moyenne. La valeur optimale de 945 dans le modèle SES de cette série s'élève à 0,2961, comme indiqué ici: L'âge moyen des données de cette prévision est de 10,2961 3,4 périodes, ce qui est similaire à celle d'une moyenne mobile simple à 6 termes. Les prévisions à long terme du modèle SES sont une droite horizontale. Comme dans le modèle SMA et le modèle randonnée aléatoire sans croissance. Cependant, notez que les intervalles de confiance calculés par Statgraphics divergent maintenant d'une manière raisonnable et qu'ils sont sensiblement plus étroits que les intervalles de confiance pour le modèle de marche aléatoire. Le modèle SES suppose que la série est quelque peu plus prévisible que le modèle de marche aléatoire. Un modèle SES est en fait un cas particulier d'un modèle ARIMA. La théorie statistique des modèles ARIMA fournit une base solide pour le calcul des intervalles de confiance pour le modèle SES. En particulier, un modèle SES est un modèle ARIMA avec une différence non saisonnière, un terme MA (1) et aucun terme constant. Autrement connu sous le nom de modèle de MARIMA (0,1,1) sans constantquot. Le coefficient MA (1) du modèle ARIMA correspond à la quantité 1 945 dans le modèle SES. Par exemple, si vous ajoutez un modèle ARIMA (0,1,1) sans constante à la série analysée ici, le coefficient MA (1) estimé s'avère être 0.7029, ce qui est presque exactement un moins 0.2961. Il est possible d'ajouter l'hypothèse d'une tendance linéaire constante non nulle à un modèle SES. Pour cela, il suffit de spécifier un modèle ARIMA avec une différence non saisonnière et un terme MA (1) avec une constante, c'est-à-dire un modèle ARIMA (0,1,1) avec constante. Les prévisions à long terme auront alors une tendance égale à la tendance moyenne observée sur l'ensemble de la période d'estimation. Vous ne pouvez pas le faire en conjonction avec l'ajustement saisonnier, car les options de réglage saisonnier sont désactivées lorsque le type de modèle est réglé sur ARIMA. Cependant, vous pouvez ajouter une tendance exponentielle à long terme constante à un modèle de lissage exponentiel simple (avec ou sans ajustement saisonnier) en utilisant l'option d'ajustement de l'inflation dans la procédure de prévision. Le taux d'inflation appropriée (taux de croissance en pourcentage) par période peut être estimé comme le coefficient de pente dans un modèle de tendance linéaire adapté aux données en conjonction avec une transformation logarithmique naturelle, ou il peut être basé sur d'autres informations indépendantes concernant les perspectives de croissance à long terme . (Retour au haut de la page) Browns Linear (c'est-à-dire double) Lissage exponentiel Les modèles SMA et SES supposent qu'il n'y a aucune tendance des données (ce qui est normalement correct ou au moins pas trop mauvais pour 1- Des prévisions d'avance lorsque les données sont relativement bruyantes), et elles peuvent être modifiées pour incorporer une tendance linéaire constante comme indiqué ci-dessus. Qu'en est-il des tendances à court terme Si une série affiche un taux de croissance variable ou un schéma cyclique qui se distingue clairement du bruit, et s'il est nécessaire de prévoir plus d'une période à venir, l'estimation d'une tendance locale pourrait également être un problème. Le modèle de lissage exponentiel simple peut être généralisé pour obtenir un modèle linéaire de lissage exponentiel (LES) qui calcule des estimations locales de niveau et de tendance. Le modèle de tendance le plus simple variant dans le temps est le modèle de lissage exponentiel linéaire de Browns, qui utilise deux séries lissées différentes qui sont centrées à différents moments. La formule de prévision est basée sur une extrapolation d'une droite passant par les deux centres. (Une version plus sophistiquée de ce modèle, Holt8217s, est discutée ci-dessous.) La forme algébrique du modèle de lissage exponentiel linéaire de Brown8217s, comme celle du modèle de lissage exponentiel simple, peut être exprimée sous différentes formes différentes mais équivalentes. La forme quotométrique de ce modèle est habituellement exprimée comme suit: Soit S la série lissée par singulier obtenue en appliquant un lissage exponentiel simple à la série Y. C'est-à-dire que la valeur de S à la période t est donnée par: (Rappelons que, sous simple Le lissage exponentiel, ce serait la prévision de Y à la période t1.) Puis, désignons par Squot la série doublement lissée obtenue en appliquant le lissage exponentiel simple (en utilisant le même 945) à la série S: Enfin, la prévision pour Y tk. Pour tout kgt1, est donnée par: Ceci donne e 1 0 (c'est-à-dire tricher un peu, et laisser la première prévision égaler la première observation réelle), et e 2 Y 2 8211 Y 1. Après quoi les prévisions sont générées en utilisant l'équation ci-dessus. Cela donne les mêmes valeurs ajustées que la formule basée sur S et S si ces derniers ont été démarrés en utilisant S 1 S 1 Y 1. Cette version du modèle est utilisée sur la page suivante qui illustre une combinaison de lissage exponentiel avec ajustement saisonnier. Holt8217s Linear Exponential Smoothing Brown8217s Le modèle LES calcule les estimations locales de niveau et de tendance en lissant les données récentes, mais le fait qu'il le fait avec un seul paramètre de lissage impose une contrainte sur les modèles de données qu'il peut adapter: le niveau et la tendance Ne sont pas autorisés à varier à des taux indépendants. Le modèle LES de Holt8217s aborde cette question en incluant deux constantes de lissage, une pour le niveau et une pour la tendance. A tout moment t, comme dans le modèle Brown8217s, il existe une estimation L t du niveau local et une estimation T t de la tendance locale. Ici, elles sont calculées récursivement à partir de la valeur de Y observée au temps t et des estimations précédentes du niveau et de la tendance par deux équations qui leur appliquent un lissage exponentiel séparément. Si le niveau et la tendance estimés au temps t-1 sont L t82091 et T t-1. Respectivement, alors la prévision pour Y tshy qui aurait été faite au temps t-1 est égale à L t-1 T t-1. Lorsque la valeur réelle est observée, l'estimation actualisée du niveau est calculée récursivement en interpolant entre Y tshy et sa prévision, L t-1 T t-1, en utilisant des poids de 945 et 1 945. La variation du niveau estimé, À savoir L t 8209 L t82091. Peut être interprété comme une mesure bruyante de la tendance à l'instant t. L'estimation actualisée de la tendance est ensuite calculée récursivement en interpolant entre L t 8209 L t82091 et l'estimation précédente de la tendance, T t-1. Utilisant des poids de 946 et 1-946: L'interprétation de la constante de lissage de tendance 946 est analogue à celle de la constante de lissage de niveau 945. Les modèles avec de petites valeurs de 946 supposent que la tendance ne change que très lentement avec le temps tandis que les modèles avec 946 supposent qu'il change plus rapidement. Un modèle avec un grand 946 croit que l'avenir lointain est très incertain, parce que les erreurs dans l'estimation de la tendance deviennent très importantes lors de la prévision de plus d'une période à venir. Les constantes de lissage 945 et 946 peuvent être estimées de la manière habituelle en minimisant l'erreur quadratique moyenne des prévisions à 1 pas. Lorsque cela est fait dans Statgraphics, les estimations s'avèrent être 945 0,3048 et 946 0,008. La très petite valeur de 946 signifie que le modèle suppose très peu de changement dans la tendance d'une période à l'autre, donc, fondamentalement, ce modèle essaie d'estimer une tendance à long terme. Par analogie avec la notion d'âge moyen des données utilisées pour estimer le niveau local de la série, l'âge moyen des données utilisées pour estimer la tendance locale est proportionnel à 1 946, mais pas exactement égal à celui-ci . Dans ce cas, cela s'avère être 10.006 125. Ceci n'est pas un nombre très précis dans la mesure où la précision de l'estimation de 946 est vraiment de 3 décimales, mais elle est du même ordre de grandeur que la taille de l'échantillon de 100, donc Ce modèle est la moyenne sur beaucoup d'histoire dans l'estimation de la tendance. Le graphique ci-dessous montre que le modèle ERP estime une tendance locale légèrement plus grande à la fin de la série que la tendance constante estimée dans le modèle SEStrend. En outre, la valeur estimée de 945 est presque identique à celle obtenue en ajustant le modèle SES avec ou sans tendance, donc c'est presque le même modèle. Maintenant, est-ce que ces ressembler à des prévisions raisonnables pour un modèle qui est censé être l'estimation d'une tendance locale Si vous 8220eyeball8221 cette intrigue, il semble que la tendance locale a tourné vers le bas à la fin de la série Qu'est-ce qui s'est passé Les paramètres de ce modèle Ont été estimées en minimisant l'erreur au carré des prévisions à un pas, et non des prévisions à plus long terme, auquel cas la tendance ne fait pas beaucoup de différence. Si tout ce que vous regardez sont des erreurs en une étape, vous ne voyez pas l'image plus grande des tendances sur (disons) 10 ou 20 périodes. Afin d'obtenir ce modèle plus en phase avec notre extrapolation ophtalmique des données, nous pouvons ajuster manuellement la constante de lissage de tendance afin qu'il utilise une ligne de base plus courte pour l'estimation de tendance. Par exemple, si l'on choisit de fixer 946 0,1, l'âge moyen des données utilisées pour estimer la tendance locale est de 10 périodes, ce qui signifie que nous faisons la moyenne de la tendance au cours des 20 dernières périodes. Here8217s ce que l'intrigue de prévision ressemble si nous fixons 946 0.1 tout en gardant 945 0.3. Cela semble intuitivement raisonnable pour cette série, bien qu'il soit probablement dangereux d'extrapoler cette tendance plus de 10 périodes dans l'avenir. Qu'en est-il des statistiques d'erreur Voici une comparaison de modèles pour les deux modèles présentés ci-dessus ainsi que trois modèles SES. La valeur optimale de 945 pour le modèle SES est d'environ 0,3, mais des résultats similaires (avec un peu plus ou moins de réactivité, respectivement) sont obtenus avec 0,5 et 0,2. (A) Holts linéaires exp. Lissage avec alpha 0,3048 et bêta 0,008 (B) Holts linéaire exp. Lissage avec alpha 0.3 et bêta 0.1 (C) Lissage exponentiel simple avec alpha 0.5 (D) Lissage exponentiel simple avec alpha 0.3 (E) Lissage exponentiel simple avec alpha 0.2 Leurs stats sont quasiment identiques, donc nous ne pouvons pas vraiment faire le choix sur la base Des erreurs de prévision à 1 pas dans l'échantillon de données. Nous devons nous rabattre sur d'autres considérations. Si nous croyons fermement qu'il est logique de baser l'estimation de la tendance actuelle sur ce qui s'est produit au cours des 20 dernières périodes, nous pouvons faire valoir le modèle ERP avec 945 0,3 et 946 0,1. Si nous voulons être agnostiques quant à savoir s'il existe une tendance locale, alors l'un des modèles SSE pourrait être plus facile à expliquer et donnerait également plus de prévisions moyennes de route pour les 5 ou 10 prochaines périodes. (Retourner au haut de la page.) Quel type d'extrapolation de tendance est le mieux: horizontal ou linéaire Les données empiriques suggèrent que, si les données ont déjà été ajustées (si nécessaire) pour l'inflation, il peut être imprudent d'extrapoler des courbes linéaires à court terme Tendances très loin dans l'avenir. Les tendances évidentes aujourd'hui peuvent ralentir à l'avenir en raison de causes variées telles que l'obsolescence des produits, la concurrence accrue, les ralentissements cycliques ou les retournements dans une industrie. Pour cette raison, le lissage exponentiel simple obtient souvent une meilleure sortie de l'échantillon que ce qui pourrait être attendu autrement, malgré son extrapolation de tendance horizontale quotnaivequot. Les modifications de tendance amorties du modèle de lissage exponentiel linéaire sont aussi souvent utilisées dans la pratique pour introduire une note de conservatisme dans ses projections de tendance. Le modèle ERP à tendance amortie peut être mis en œuvre comme un cas particulier d'un modèle ARIMA, en particulier un modèle ARIMA (1,1,2). Il est possible de calculer des intervalles de confiance autour des prévisions à long terme produites par les modèles de lissage exponentiel, en les considérant comme des cas spéciaux de modèles ARIMA. La largeur des intervalles de confiance dépend de (i) l'erreur RMS du modèle, (ii) le type de lissage (simple ou linéaire) (iii) la valeur (S) de la constante de lissage et (iv) le nombre de périodes à venir que vous prévoyez. En général, les intervalles s'étalent plus rapidement lorsque 945 devient plus grand dans le modèle SES et ils s'étalent beaucoup plus rapidement lorsque linéaire plutôt que de simple lissage est utilisé. Ce sujet est abordé plus en détail dans la section des modèles ARIMA des notes. 2.1 Modèles de moyenne mobile (modèles MA) Les modèles de séries chronologiques connus sous le nom de modèles ARIMA peuvent inclure des termes autorégressifs ou des termes de moyenne mobile. Dans la semaine 1, nous avons appris un terme autorégressif dans un modèle de série chronologique pour la variable x t est une valeur décalée de x t. Par exemple, un terme autorégressif de retard 1 est x t-1 (multiplié par un coefficient). Cette leçon définit les termes moyens mobiles. Un terme moyen mobile dans un modèle de séries chronologiques est une erreur passée (multipliée par un coefficient). Soit (wt overet N (0, sigma2w)), ce qui signifie que les w t sont identiquement, indépendamment distribués, chacun avec une distribution normale ayant une moyenne 0 et la même variance. Le modèle de moyenne mobile du 1er ordre, noté MA (1) est (xt mu wt theta1w) Le modèle de moyenne mobile du 2 e ordre, noté MA (2) est (xt mu wt theta1w theta2w) , Notée MA (q) est (xt mu wt theta1w theta2w points thetaqw) Note. De nombreux manuels et programmes logiciels définissent le modèle avec des signes négatifs avant les termes. Cela ne modifie pas les propriétés théoriques générales du modèle, bien qu'il renverse les signes algébriques des valeurs des coefficients estimés et des termes (non carrés) dans les formules pour les ACF et les variances. Vous devez vérifier votre logiciel pour vérifier si des signes négatifs ou positifs ont été utilisés pour écrire correctement le modèle estimé. R utilise des signes positifs dans son modèle sous-jacent, comme nous le faisons ici. Propriétés théoriques d'une série temporelle avec un modèle MA (1) Notez que la seule valeur non nulle dans l'ACF théorique est pour le lag 1. Toutes les autres autocorrélations sont 0. Ainsi, un échantillon ACF avec une autocorrélation significative seulement au décalage 1 est un indicateur d'un modèle MA (1) possible. Pour les étudiants intéressés, les preuves de ces propriétés sont une annexe à ce document. Exemple 1 Supposons qu'un modèle MA (1) soit x t 10 w t .7 w t-1. Où (wt dépasse N (0,1)). Ainsi, le coefficient 1 0,7. L'ACF théorique est donné par Un tracé de cette ACF suit. Le graphique qui vient d'être montré est l'ACF théorique pour un MA (1) avec 1 0,7. En pratique, un échantillon ne fournira habituellement qu'un tel motif clair. En utilisant R, nous avons simulé n 100 échantillons en utilisant le modèle x t 10 w t .7 w t-1 où w t iid N (0,1). Pour cette simulation, un schéma chronologique des données de l'échantillon suit. Nous ne pouvons pas dire beaucoup de cette intrigue. L'échantillon ACF pour les données simulées suit. Nous observons un pic au décalage 1 suivi par des valeurs généralement non significatives pour les décalages au-delà de 1. Notez que l'échantillon ACF ne correspond pas au modèle théorique du MA (1) sous-jacent, c'est-à-dire que toutes les autocorrélations Un échantillon différent aurait un ACF d'échantillon légèrement différent indiqué ci-dessous, mais aurait probablement les mêmes caractéristiques générales. Propriétés théoriques d'une série temporelle avec un modèle MA (2) Pour le modèle MA (2), les propriétés théoriques sont les suivantes: Noter que les seules valeurs non nulles dans l'ACF théorique sont pour les lags 1 et 2. Les autocorrélations pour les décalages supérieurs sont 0 . Ainsi, un échantillon ACF avec des autocorrélations significatives aux décalages 1 et 2, mais des autocorrélations non significatives pour des décalages plus élevés indique un modèle MA (2) possible. Iid N (0,1). Les coefficients sont 1 0,5 et 2 0,3. Parce qu'il s'agit d'une MA (2), l'ACF théorique aura des valeurs non nulles uniquement aux lags 1 et 2. Les valeurs des deux autocorrélations non nulles sont: Un tracé de la théorie ACF suit. Comme presque toujours le cas, les données d'échantillon ne se comporteront pas aussi parfaitement que la théorie. Nous avons simulé n 150 échantillons pour le modèle x t 10 w t .5 w t-1 .3 w t-2. Où w t iid N (0,1). Le tracé de la série chronologique des données suit. Comme avec le graphique de la série temporelle pour les données d'échantillon MA (1), vous ne pouvez pas en dire beaucoup. L'échantillon ACF pour les données simulées suit. Le modèle est typique pour les situations où un modèle MA (2) peut être utile. Il y a deux pointes statistiquement significatives aux écarts 1 et 2, suivies des valeurs non significatives pour les autres retards. Notez qu'en raison de l'erreur d'échantillonnage, l'ACF de l'échantillon ne correspondait pas exactement au modèle théorique. ACF pour les modèles General MA (q) Une propriété des modèles MA (q) en général est qu'il existe des autocorrélations non nulles pour les q premiers lags et autocorrélations 0 pour tous les retards gt q. Non-unicité de la connexion entre les valeurs de 1 et (rho1) dans MA (1) Modèle. Dans le modèle MA (1), pour toute valeur de 1. La valeur réciproque 1 1 donne la même valeur pour. Par exemple, utilisez 0,5 pour 1. Puis utilisez 1 (0,5) 2 pour 1. Vous obtiendrez (rho1) 0,4 dans les deux cas. Pour satisfaire une restriction théorique appelée invertibilité. Nous limitons les modèles MA (1) à des valeurs dont la valeur absolue est inférieure à 1. Dans l'exemple donné, 1 0,5 sera une valeur de paramètre admissible, alors que 1 10,5 2 ne le sera pas. Invertibilité des modèles MA Un modèle MA est dit inversible s'il est algébriquement équivalent à un modèle d'ordre infini convergent. En convergeant, nous voulons dire que les coefficients AR décroissent à 0 lorsque nous retournons dans le temps. Invertibilité est une restriction programmée dans le logiciel de séries temporelles utilisé pour estimer les coefficients de modèles avec des termes MA. Ce n'est pas quelque chose que nous vérifions dans l'analyse des données. Des informations supplémentaires sur la restriction d'inversibilité pour les modèles MA (1) sont données en annexe. Théorie avancée. Pour un modèle MA (q) avec un ACF spécifié, il n'existe qu'un seul modèle inversible. La condition nécessaire à l'inversibilité est que les coefficients ont des valeurs telles que l'équation 1- 1 y-. - q y q 0 a des solutions pour y qui tombent en dehors du cercle unitaire. Code R pour les exemples Dans l'exemple 1, nous avons représenté l'ACF théorique du modèle x t 10 w t. 7w t-1. Puis a simulé n 150 valeurs à partir de ce modèle et a représenté graphiquement la série chronologique de l'échantillon et l'échantillon ACF pour les données simulées. Les r commandes utilisées pour tracer l'ACF théorique sont: acfma1ARMAacf (mac (0.7), lag. max10) 10 lags de ACF pour MA (1) avec theta1 0.7 lags0: 10 crée une variable nommée lags qui va de 0 à 10. plot Abline (h0) ajoute un axe horizontal à la trame La première commande détermine l'ACF et la stocke dans un objet (a0) Nommé acfma1 (notre choix de nom). La commande plot (la 3ème commande) trace des retards par rapport aux valeurs ACF pour les lags 1 à 10. Le paramètre ylab étiquette l'axe y et le paramètre principal place un titre sur la trame. Pour voir les valeurs numériques de l'ACF, utilisez simplement la commande acfma1. La simulation et les parcelles ont été effectuées avec les commandes suivantes. (X, typeb, mainSimulated MA (1) data) xcarima. sim (n150, list (mac (0.7))) Simule n 150 valeurs de MA (1) xxc10 ajoute 10 pour faire la moyenne 10. La simulation (X, xlimc (1,10), mainACF pour des données d'échantillon simulées) Dans l'exemple 2, nous avons représenté graphiquement l'ACF théorique du modèle xt 10 wt.5 w t-1 .3 w t-2. Puis a simulé n 150 valeurs à partir de ce modèle et a représenté graphiquement la série chronologique de l'échantillon et l'échantillon ACF pour les données simulées. Les ordres R utilisés étaient: ACFma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 tracé (lags, acfma2, xlimc (1,10), ylabr, typeh, ACF principal pour MA (2) avec theta1 0,5, (X, typeb, principale série MA (2) simulée) acf (x, xlimc (1,10), x2) (1) Pour les étudiants intéressés, voici des preuves des propriétés théoriques du modèle MA (1). Lorsque x 1, l'expression précédente 1 w 2. Pour tout h 2, l'expression précédente 0 (x), x, x, x, x, x, La raison en est que, par définition de l'indépendance du wt. E (w k w j) 0 pour tout k j. En outre, parce que w t ont une moyenne 0, E (w j w j) E (w j 2) w 2. Pour une série chronologique, appliquer ce résultat pour obtenir l'ACF ci-dessus. Un modèle inversible MA est celui qui peut être écrit comme un modèle AR d'ordre infini qui converge de sorte que les coefficients AR convergent vers 0 alors que nous avançons infiniment dans le temps. Bien démontrer l'inversibilité pour le modèle MA (1). On substitue alors la relation (2) pour w t-1 dans l'équation (1) (3) (zt wt theta1 (z - theta1w) wt theta1z - theta2w) Au temps t-2. L'équation (2) devient Nous substituons alors la relation (4) pour w t-2 dans l'équation (3) (zt wt theta1 z - theta21w wt theta1z - theta21 (z - theta1w) wt theta1z-theta12z theta31w) Si nous devions continuer On notera cependant que si 1 1, les coefficients multipliant les décalages de z augmentent (infiniment) de la taille à mesure que l'on se déplace vers l'arrière temps. Pour éviter cela, nous avons besoin de 1 lt1. C'est la condition pour un modèle inversible MA (1). Infinite Order MA model Dans la semaine 3, voyez bien qu'un modèle AR (1) peut être converti en un modèle d'ordre infini MA: (xt - mu wt phi1w phi21w points phik1 w dots sum phij1w) Cette sommation des termes de bruit blanc passé est connue Comme la représentation causale d'un AR (1). En d'autres termes, x t est un type spécial de MA avec un nombre infini de termes revenant dans le temps. C'est ce qu'on appelle un ordre infini MA ou MA (). Un ordre fini MA est un ordre infini AR et tout ordre fini AR est un ordre infini MA. Rappelons à la semaine 1, nous avons noté qu'une exigence pour un AR stationnaire (1) est que 1 lt1. Calculons le Var (x t) en utilisant la représentation causale. Cette dernière étape utilise un fait de base sur les séries géométriques qui nécessite (phi1lt1) sinon la série diverge. La navigation


No comments:

Post a Comment