Moving Average Prozess Ist Stationär


Betrachten Sie die unendliche Ordnung MA Prozess definiert durch ytepsilonta (epsilon epsilon.), Wo a ist eine Konstante und die epsilonts sind i. i.d. N (0, v) zufällige Variable. Was ist der beste Weg, um zu zeigen, dass yt ist nichtstationary Ich weiß, dass ich die charakteristischen Wurzeln der Eigenschaften Polynom betrachten und dann beurteilen, ob sie außerhalb des Einheitskreises sind, aber was ist der beste Weg, um dieses Problem zu nähern Sollte ich versuchen, die unendliche Ordnung MA-Prozess als endliche Ordnung AR-Prozess umschreiben oder ist es einfacher zu arbeiten, die MA-Prozess gefragt 19. Oktober 13 um 21: 11Was sind stationäre autoregressive (AR), gleitenden Durchschnitt (MA) und stationäre gemischt (ARMA ) Prozesse Stationäre autoregressive (AR) Prozesse Stationäre autoregressive (AR) Prozesse haben theoretische Autokorrelationsfunktionen (ACFs), die auf Null abfallen, anstatt auf Null abzuschneiden. Die Autokorrelationskoeffizienten können sich häufig signieren oder ein wellenartiges Muster zeigen, aber in allen Fällen schlagen sie auf Null ab. Im Gegensatz dazu haben AR-Prozesse mit der Ordnung p theoretische partielle Autokorrelationsfunktionen (PACF), die nach Verzögerung p auf Null abschneiden. (Die Verzögerungslänge des endgültigen PACF-Spikes entspricht der AR-Reihenfolge des Prozesses, p.) Verschieben des durchschnittlichen (MA) Prozesses Die theoretischen ACFs von MA (gleitende durchschnittliche) Prozesse mit der Ordnung q, die nach der Verzögerung q, der MA-Ordnung, Des Prozesses. Allerdings zerfallen ihre theoretischen PACFs auf Null. (Die Verzögerungslänge des endgültigen ACF-Spikes entspricht der MA-Ordnung des Prozesses, q.) Stationäres gemischtes (ARMA) Verfahren Stationäre gemischte (ARMA) Prozesse zeigen eine Mischung aus AR - und MA-Eigenschaften. Sowohl die theoretische ACF als auch die PACF schlagen gegen Null ab. Copyright 2016 Minitab Inc. Alle Rechte vorbehalten. Eine kurze Einführung in die moderne Zeitreihendefinition Eine Zeitreihe ist eine zufällige Funktion x t eines Arguments t in einem Satz T. Mit anderen Worten, eine Zeitreihe ist eine Familie von zufälligen Variablen. X t-1 X t. X t1 Entsprechend allen Elementen in der Menge T, wobei T eine abzählbare, unendliche Menge sein soll. Definition Eine beobachtete Zeitreihe t t e T o T wird als Teil einer Realisierung einer Zufallsfunktion x t betrachtet. Eine unendliche Menge möglicher Erkenntnisse, die man beobachten könnte, heißt Ensemble. Um die Dinge rigoroser zu setzen, ist die Zeitreihe (oder zufällige Funktion) eine reelle Funktion x (w, t) der beiden Variablen w und t, wobei wW und t T. Wenn wir den Wert von w festlegen. Wir haben eine reelle Funktion x (t w) der Zeit t, die eine Realisierung der Zeitreihe ist. Wenn wir den Wert von t festlegen, dann haben wir eine zufällige Variable x (wt). Für einen gegebenen Zeitpunkt gibt es eine Wahrscheinlichkeitsverteilung über x. Somit kann eine zufällige Funktion x (w, t) entweder als eine Familie von zufälligen Variablen oder als eine Familie von Realisierungen betrachtet werden. Definition Wir definieren die Verteilungsfunktion der Zufallsvariablen w mit t 0 als P o) x (x). Ebenso können wir die gemeinsame Verteilung für n zufällige Variablen definieren. Die Punkte, die die Zeitreihenanalyse von gewöhnlichen statistischen Analysen unterscheiden, sind folgende (1) Die Abhängigkeit von Beobachtungen zu verschiedenen zeitlichen Zeitpunkten spielt eine wesentliche Rolle. Mit anderen Worten, die Reihenfolge der Beobachtungen ist wichtig. In der gewöhnlichen statistischen Analyse wird davon ausgegangen, dass die Beobachtungen voneinander unabhängig sind. (2) Die Domäne von t ist unendlich. (3) Wir müssen aus einer Realisierung eine Schlussfolgerung ziehen. Die Realisierung der Zufallsvariablen kann nur einmal zu jedem Zeitpunkt beobachtet werden. In der multivariaten Analyse haben wir viele Beobachtungen über eine endliche Anzahl von Variablen. Dieser kritische Unterschied erfordert die Annahme der Stationarität. Definition Die zufällige Funktion x t gilt als streng stationär, wenn alle endlichen dimensionalen Verteilungsfunktionen, die x t definieren, gleich bleiben, auch wenn die ganze Gruppe von Punkten t 1 ist. T 2 T n wird entlang der Zeitachse verschoben. Das heißt, wenn für irgendwelche ganze Zahlen t 1. T 2 T n und k. Grafisch könnte man die Realisierung einer streng stationären Serie als nicht nur die gleiche Ebene in zwei verschiedenen Intervallen, sondern auch die gleiche Verteilungsfunktion, bis hin zu den Parametern, die es definieren, darstellen. Die Annahme der Stationarität macht unser Leben einfacher und weniger kostspielig. Ohne Stationarität müssten wir den Prozeß zu jedem Zeitpunkt häufig abtasten, um eine Charakterisierung der Verteilungsfunktionen in der früheren Definition aufzubauen. Stationarität bedeutet, dass wir unsere Aufmerksamkeit auf einige der einfachsten numerischen Funktionen beschränken können, d. h. die Momente der Verteilungen. Die zentralen Momente sind gegeben durch Definition (i) Der Mittelwert der Zeitreihe t ist d. h. das Moment der ersten Ordnung. (Ii) Die Autokovarianzfunktion von t ist d. h. das zweite Moment um den Mittelwert. Wenn ts dann hast du die Varianz von x t. Wir werden die Autokovarianz einer stationären Reihe bezeichnen, wobei k die Differenz zwischen t und s bezeichnet. (Iii) Die Autokorrelationsfunktion (ACF) von t wird verwendet, um die Autokorrelation einer stationären Reihe zu bezeichnen, wobei k die Differenz zwischen t und s bezeichnet. (Iv) Die partielle Autokorrelation (PACF). Fkk Ist die Korrelation zwischen z t und z tk nach dem Entfernen ihrer gegenseitigen linearen Abhängigkeit von den dazwischenliegenden Variablen z t1. Z t2 Z tk-1 Eine einfache Möglichkeit, die partielle Autokorrelation zwischen z t und z tk zu berechnen, besteht darin, die beiden Regressionen auszuführen und dann die Korrelation zwischen den beiden Restvektoren zu berechnen. Oder nach dem Messen der Variablen als Abweichungen von ihren Mitteln kann die partielle Autokorrelation als der LS-Regressionskoeffizient auf z t in dem Modell gefunden werden, bei dem der Punkt über der Variablen anzeigt, dass er als Abweichung von seinem Mittelwert gemessen wird. (V) Die Yule-Walker-Gleichungen stellen eine wichtige Beziehung zwischen den partiellen Autokorrelationen und den Autokorrelationen dar. Multiplizieren Sie beide Seiten der Gleichung 10 mit z tk-j und nehmen Sie Erwartungen. Diese Operation gibt uns die folgende Differenzgleichung in den Autokovarianzen oder in Bezug auf die Autokorrelationen Diese scheinbar einfache Darstellung ist wirklich ein mächtiges Ergebnis. Nämlich für j1,2. K können wir das ganze Gleichungssystem schreiben, das als die Yule-Walker-Gleichungen bekannt ist. Aus der linearen Algebra wissen Sie, dass die Matrix von rs vollrangig ist. Daher ist es möglich, die Cramers-Regel sukzessive für k1,2 anzuwenden. Um das System für die partiellen Autokorrelationen zu lösen. Die ersten drei sind Wir haben drei wichtige Ergebnisse auf streng stationäre Serie. Die Implikation ist, dass wir jede endliche Realisierung der Sequenz verwenden können, um den Mittelwert zu schätzen. Zweite . Wenn t streng stationär ist und e t 2 lt dann die Implikation ist, dass die Autokovarianz nur von der Differenz zwischen t und s abhängt, nicht von ihrem chronologischen Zeitpunkt in der Zeit. Wir könnten jedes Paar von Intervallen bei der Berechnung der Autokovarianz verwenden, solange die Zeit zwischen ihnen konstant war. Und wir können jede endliche Verwirklichung der Daten verwenden, um die Autokovarianzen zu schätzen. Drittens ist die Autokorrelationsfunktion im Falle einer strengen Stationarität gegeben durch Die Implikation ist, dass die Autokorrelation nur von der Differenz zwischen t und s abhängt, und wieder können sie durch eine endliche Realisierung der Daten geschätzt werden. Wenn es unser Ziel ist, Parameter zu schätzen, die die möglichen Realisierungen der Zeitreihen beschreiben, dann ist vielleicht eine strenge Stationarität zu restriktiv. Zum Beispiel, wenn die Mittelwerte und Kovarianzen von x t konstant und unabhängig vom chronologischen Zeitpunkt sind, dann ist es uns vielleicht nicht wichtig, dass die Verteilungsfunktion für verschiedene Zeitintervalle gleich ist. Definition Eine zufällige Funktion steht im weiten Sinne (oder schwach stationär oder stationär im Khinchins-Sinne oder Kovarianz stationär) bei m 1 (t) m und m 11 (t, s). Strenge Stationarität bedeutet an sich keine schwache Stationarität. Schwache Stationarität bedeutet keine strenge Stationarität. Strenge Stationarität mit E t 2 lt impliziert schwache Stationarität. Ergodische Theoreme beschäftigen sich mit der Frage nach den notwendigen und hinreichenden Bedingungen, um aus einer einzigen Realisierung einer Zeitreihe zu kommen. Grundsätzlich geht es auf eine schwache Stationarität. Theorem Ist t schwach stationär mit mittlerer und kovarianzfunktion, so ist für jeden gegebenen e gt 0 und h gt 0 eine gewisse Anzahl T o vorhanden, so daß für alle T gt T o Wenn und nur wenn diese notwendige und hinreichende Bedingung ist, dass die Autokovarianzen aussterben, in welchem ​​Fall die Stichprobe bedeutet eine konsistente Schätzung für die Bevölkerung bedeuten. Korollar Ist t schwach stationär mit E tk xt 2 lt für jedes t und e tk xtx tsk x ts ist unabhängig von t für irgendeine ganze Zahl s, dann wenn und nur wenn wo eine Folge der Korollar die Annahme ist, dass xtx tk ist Schwach stationär Der Ergodische Satz ist nicht mehr als ein Gesetz von großer Zahl, wenn die Beobachtungen korreliert sind. Man könnte an dieser Stelle über die praktischen Implikationen der Stationarität fragen. Die häufigste Anwendung der Verwendung von Zeitreihentechniken ist die Modellierung makroökonomischer Daten, sowohl theoretisch als auch atheoretisch. Als Beispiel für das erstere könnte man ein Multiplikator-Beschleuniger-Modell haben. Damit das Modell stationär ist, müssen die Parameter bestimmte Werte haben. Ein Test des Modells ist dann, die relevanten Daten zu sammeln und die Parameter zu schätzen. Wenn die Schätzungen nicht mit der Stationarität übereinstimmen, dann muss man entweder das theoretische Modell oder das statisticla-Modell oder beide überdenken. Wir haben jetzt genug Maschinen, um über die Modellierung von univariaten Zeitreihen zu sprechen. Es gibt vier Schritte in den Prozess. 1. Modellierung von theoretischen und experimentellen Erkenntnissen 2. Identifizierung von Modellen basierend auf den Daten (beobachtete Serie) 3. Anpassung der Modelle (Schätzung der Parameter des Modells) 4. Überprüfung des Modells Wenn im vierten Schritt sind wir nicht Zufrieden sind wir zurück zu Schritt eins. Der Prozess ist iterativ, bis eine weitere Überprüfung und Respecifikation keine weitere Ergebnisverbesserung ergibt. Schematisch Definition Einige einfache Operationen beinhalten folgendes: Der Backshift-Operator Bx tx t-1 Der Vorwärtsoperator Fx tx t1 Der Differenzoperator 1 - B xtxt - x t-1 Der Differenzoperator verhält sich in einer Weise, die mit der Konstanten in einer unendlichen Reihe übereinstimmt . Das heißt, seine Umkehrung ist die Grenze einer unendlichen Summe. Das heißt, -1 (1-B) -1 1 (1-B) 1BB 2. Der Integrationsoperator S -1 Da es sich um die Umkehrung des Differenzoperators handelt, dient der Integrationsoperator dazu, die Summe zu konstruieren. MODELLGEBÄUDE In diesem Abschnitt bieten wir Ihnen einen kurzen Überblick über die gängigsten Zeitreihenmodelle. Auf der Grundlage der Kenntnisse des Datenerzeugungsprozesses wählt man eine Klasse von Modellen zur Identifikation und Schätzung aus den folgenden Möglichkeiten. Definition Angenommen, Ex t m ist unabhängig von t. Ein Modell wie mit den Merkmalen heißt das autoregressive Modell der Ordnung p, AR (p). Definition Wenn eine zeitabhängige Variable (stochastischer Prozess) t erfüllt, dann gilt t die Markov-Eigenschaft. Auf der LHS ist die Erwartung auf die unendliche Geschichte von x t. Auf der RHS ist es nur ein Teil der Geschichte bedingt. Aus den Definitionen wird ein AR (p) - Modell gesehen, um die Markov-Eigenschaft zu befriedigen. Mit dem Backshift-Operator können wir unser AR-Modell als Theorem schreiben. Eine notwendige und hinreichende Bedingung für das stationäre AR (p) - Modell ist, dass alle Wurzeln des Polynoms außerhalb des Einheitskreises liegen. Beispiel 1 Betrachten Sie die AR (1) Die einzige Wurzel von 1 - f 1 B 0 ist B 1 f 1. Die Bedingung für die Stationarität erfordert das. Wenn dann die beobachtete Reihe sehr frenetisch erscheinen wird. Z. B. Betrachten, in welchen der weiße Rauschbegriff eine Normalverteilung mit einem Null-Mittelwert und einer Varianz von Eins hat. Die Beobachtungen wechseln mit fast jeder Beobachtung. Wenn auf der anderen Seite dann die beobachtete Serie viel glatter wird. In dieser Reihe neigt eine Beobachtung dazu, über 0 zu liegen, wenn ihr Vorgänger über Null war. Die Varianz von e t ist s e 2 für alle t. Die Varianz von x t. Wenn es null hat, ist gegeben von Da die Serie stationär ist, können wir schreiben. Die Autokovarianzfunktion einer AR (1) - Serie ist also ohne Verlust der Allgemeinheit m 0 zu sehen, wie das in den AR-Parametern aussieht, so werden wir von der Tatsache Gebrauch machen, dass wir xt wie folgt schreiben können. Multiplizieren mit x Tk und nehmen Erwartungen Beachten Sie, dass die Autokovarianzen sterben, wie k wächst. Die Autokorrelationsfunktion ist die Autokovarianz, dividiert durch die Varianz des weißen Rauschterms. Oder, . Mit den früheren Yule-Walker-Formeln für die partiellen Autokorrelationen haben wir für einen AR (1) die Autokorrelationen exponentiell aus und die partiellen Autokorrelationen zeigen eine Spike bei einer Verzögerung und sind danach Null. Beispiel 2 Betrachten Sie das AR (2) Das zugehörige Polynom im Lag-Operator ist die Wurzeln mit der quadratischen Formel gefunden werden. Die Wurzeln sind, wenn die Wurzeln real sind und als Folge wird die Reihe exponentiell in Reaktion auf einen Schock abnehmen. Wenn die Wurzeln komplex sind und die Serie als gedämpfte Zeichenwelle erscheinen wird. Der Satzungstheorem setzt die folgenden Bedingungen auf die AR-Koeffizienten Die Autokovarianz für einen AR (2) - Verfahren mit nullem Mittelwert ist durch die Varianz von xt durchdringt die Autokorrelationsfunktion Da können wir schreiben Ähnlich für die zweite und dritte Autokorrelationen Die andere Autokorrelationen werden rekursiv behoben. Ihr Muster wird durch die Wurzeln der linearen Differenzengleichung zweiter Ordnung bestimmt Wenn die Wurzeln real sind, werden die Autokorrelationen exponentiell abnehmen. Wenn die Wurzeln komplex sind, erscheinen die Autokorrelationen als gedämpfte Sinuswelle. Mit den Yule-Walker-Gleichungen, die Teilautokorrelationen sind wieder, die Autokorrelationen sterben langsam aus. Die partielle Autokorrelation auf der anderen Seite ist ganz unverwechselbar. Es hat Spikes an ein und zwei Lags und ist danach null. Theorem Ist x t ein stationärer AR (p) Prozess, so kann er äquivalent als lineares Filtermodell geschrieben werden. Das heißt, das Polynom im Backshift-Operator kann invertiert werden und das AR (p) als gleitender Durchschnitt der unendlichen Ordnung geschrieben werden. Beispiel Angenommen, z t ist ein AR (1) Prozess mit Null Mittelwert. Was für die aktuelle Periode gilt, muss auch für Vorperioden gelten. So können wir durch rekursive Substitution quadratisch beide Seiten schreiben und Erwartungen nehmen, die rechte Seite verschwindet als k seit f lt 1. Daher konvergiert die Summe in zt im quadratischen Mittel. Wir können das AR (p) Modell als linearen Filter umschreiben, das wir als stationär kennen. Die Autokorrelationsfunktion und die partielle Autokorrelation nehmen im Allgemeinen an, dass eine stationäre Serie z t mit mittlerem Null autoristisch ist. Die Autokorrelationsfunktion eines AR (p) wird gefunden, indem man Erwartungen an und durchdringt durch die Varianz von z t. Dies sagt uns, daß r k eine lineare Kombination der vorherigen Autokorrelationen ist. Wir können dies bei der Anwendung von Cramers-Regel verwenden, um (i) bei der Lösung für f kk. Insbesondere können wir sehen, dass diese lineare Abhängigkeit f kk 0 für k gt p verursacht. Diese Besonderheit der autoregressiven Serien wird sehr nützlich sein, wenn es um die Identifizierung einer unbekannten Serie geht. Wenn du entweder MathCAD oder MathCAD Explorer hast, kannst du mit den hier vorgestellten AR (p) Ideen interaktivieren. Moving Average Models Betrachten wir ein dynamisches Modell, bei dem die Interessensreihe nur von einem Teil der Geschichte des White Noise Term abhängt. Schematisch könnte dies als Definition dargestellt werden. Angenommen, a t ist eine unkorrelierte Folge von i. i.d. Zufällige Variablen mit null mittlerer und endlicher Varianz. Dann ist ein gleitender Mittelwert der Ordnung q, MA (q), durch Theorem gegeben: Ein gleitender Durchschnittsprozess ist immer stationär. Beweis: Anstatt mit einem allgemeinen Beweis zu beginnen, werden wir es für einen bestimmten Fall tun. Angenommen, z t ist MA (1). Dann . Natürlich hat a t eine mittlere und endliche Varianz. Der Mittelwert von z t ist immer Null. Die Autokovarianzen werden gegeben von Sie können sehen, dass der Mittelwert der zufälligen Variablen nicht von der Zeit in irgendeiner Weise abhängt. Sie können auch sehen, dass die Autokovarianz nur vom Offset abhängt, nicht auf wo in der Serie wir starten. Wir können das gleiche Ergebnis allgemeiner durchführen, indem wir mit dem beginnen, das die wechselnde gleitende durchschnittliche Darstellung hat. Betrachten wir zuerst die Varianz von z t. Durch rekursive Substitution können Sie zeigen, dass dies gleich ist Die Summe, die wir kennen, um eine konvergente Serie zu sein, so dass die Varianz endlich ist und unabhängig von der Zeit ist. Die Kovarianzen sind zum Beispiel Sie können auch sehen, dass die Auto-Kovarianzen nur von den relativen Zeitpunkten abhängen, nicht von dem chronologischen Zeitpunkt der Zeit. Unsere Schlussfolgerung aus all dem ist, dass ein MA () - Prozess stationär ist. Für den allgemeinen MA (q) - Verfahren ist die Autokorrelationsfunktion gegeben durch Die partielle Autokorrelationsfunktion wird gleichmäßig auslaufen. Sie können dies sehen, indem Sie den Prozess invertieren, um einen AR () Prozess zu erhalten. Wenn du entweder MathCAD oder MathCAD Explorer hast, kannst du interaktiv mit einigen der hier vorgestellten MA (q) Ideen experimentieren. Mixed Autoregressive - Moving Average Models Definition Angenommen, ein t ist eine unkorrelierte Sequenz von i. i.d. Zufällige Variablen mit null mittlerer und endlicher Varianz. Dann wird ein autoregressiver, gleitender Mittelprozess der Ordnung (p, q), ARMA (p, q) gegeben. Die Wurzeln des autoregressiven Operators müssen alle außerhalb des Einheitskreises liegen. Die Anzahl der Unbekannten ist pq2. Die p und q sind offensichtlich. Die 2 enthält die Stufe des Prozesses, m. Und die Varianz des weißen Rauschbegriffs, sa 2. Angenommen, wir kombinieren unsere AR - und MA-Darstellungen, so dass das Modell ist und die Koeffizienten normalisiert werden, so dass bo 1. Dann wird diese Darstellung als ARMA (p, q) bezeichnet, wenn die Wurzeln von (1) liegen alle außerhalb des Einheitskreises. Angenommen, die y t werden als Abweichungen vom Mittelwert gemessen, so dass wir a fallen können. Dann wird die Autokovarianz-Funktion abgeleitet, wenn jgtq dann die MA-Begriffe fallen in Erwartung zu geben Das heißt, die Autokovarianz-Funktion sieht aus wie eine typische AR für Lags nach q sie sterben glatt nach q, aber wir können nicht sagen, wie 1,2 133, Q wird aussehen Wir können auch die PACF für diese Klasse von Modell untersuchen. Das Modell kann geschrieben werden, da wir dies als MA (inf) - Prozess schreiben können, was darauf hindeutet, dass die PACFs langsam aussterben. Mit einer Arithmetik konnten wir zeigen, dass dies erst nach den ersten P-Spikes des AR-Teils geschieht. Empirisches Gesetz In Wirklichkeit kann eine stationäre Zeitreihe gut durch p 2 und q 2 dargestellt werden. Wenn Ihr Unternehmen eine gute Annäherung an die Realität und die Güte der Passform bietet, ist Ihr Kriterium dann ein verschwenderisches Modell bevorzugt. Wenn Ihr Interesse prädiktive Effizienz ist, dann ist das sparsame Modell bevorzugt. Experimentiere mit den ARMA-Ideen, die oben mit einem MathCAD-Arbeitsblatt vorgestellt wurden. Autoregressive Integrate Moving Average Modelle MA Filter AR Filter Filter integrieren Manchmal ist der Prozess oder die Serie, die wir versuchen zu modellieren, nicht stationär in Levels. Aber es könnte sein, stationäre in, sagen, erste Unterschiede. Das heißt, in ihrer ursprünglichen Form können die Autokovarianzen für die Serie nicht unabhängig vom chronologischen Zeitpunkt sein. Wenn wir aber eine neue Serie konstruieren, die die ersten Unterschiede der Originalreihe ist, so erfüllt diese neue Serie die Definition der Stationarität. Dies ist oft der Fall bei ökonomischen Daten, die stark trendig sind. Definition Angenommen, dass z t nicht stationär ist, aber z t - z t - 1 erfüllt die Definition der Stationarität. Auch bei dem weißen Rauschbegriff hat endliche Mittel und Varianz. Wir können das Modell schreiben, da dies ein ARIMA (p, d, q) Modell genannt wird. P identifiziert die Reihenfolge des AR-Operators, d identifiziert das Einschalten. Q identifiziert die Reihenfolge des MA-Operators. Wenn die Wurzeln von f (B) außerhalb des Einheitskreises liegen, können wir die ARIMA (p, d, q) als linearen Filter umschreiben. I. e. Es kann als MA () geschrieben werden. Wir behalten uns die Diskussion über die Erkennung von Einheitswurzeln für einen anderen Teil der Vorlesungsunterlagen vor. Betrachten wir ein dynamisches System mit x t als Eingangsreihe und y t als Ausgabeserie. Schematisch haben wir diese Modelle sind eine diskrete Analogie von linearen Differentialgleichungen. Wir nehmen die folgende Beziehung an, wo b eine reine Verzögerung anzeigt. Erinnere dich daran, dass (1-B). Durch diese Substitution kann das Modell geschrieben werden. Wenn das Koeffizientenpolynom auf y t invertiert werden kann, kann das Modell geschrieben werden, da V (B) als Impulsantwortfunktion bekannt ist. Wir werden diese Terminologie wieder in unserer späteren Diskussion über Vektor autoregressive kommen. Kointegrations - und Fehlerkorrekturmodelle. MODELL-IDENTIFIKATION Nachdem Sie sich für eine Klasse von Modellen entschieden haben, muss man nun die Reihenfolge der Prozesse identifizieren, die die Daten erzeugen. Das heißt, man muss sich am besten über die Reihenfolge der AR - und MA-Prozesse entscheiden, die die stationären Serien antreiben. Eine stationäre Serie zeichnet sich durch ihre Mittel - und Autokovarianzen aus. Aus analytischen Gründen arbeiten wir meist mit den Autokorrelationen und Teilautokorrelationen. Diese beiden grundlegenden Werkzeuge haben einzigartige Muster für stationäre AR - und MA-Prozesse. Man könnte Stichprobenschätzungen der Autokorrelations - und Teilautokorrelationsfunktionen berechnen und sie mit tabellierten Ergebnissen für Standardmodelle vergleichen. Beispiel Autokovarianz Funktion Beispiel Autokorrelation Funktion Die Probe Teilautokorrelationen werden die Autokorrelationen verwenden und Teilautokorrelationen ist im Prinzip ganz einfach. Angenommen, wir haben eine Serie z t. Mit null gemein, das ist AR (1). Wenn wir die Regression von z t2 auf z t1 und z t ausführen würden, würden wir erwarten, dass der Koeffizient auf z t nicht anders als null war, da diese partielle Autokorrelation Null sein sollte. Auf der anderen Seite sollten die Autokorrelationen für diese Serie exponentiell abnehmen, um die Verzögerungen zu erhöhen (siehe AR (1) Beispiel oben). Angenommen, die Serie ist wirklich ein gleitender Durchschnitt. Die Autokorrelation sollte überall null sein, aber bei der ersten Verzögerung. Die partielle Autokorrelation sollte exponentiell aussterben. Sogar von unserem sehr flüchtigen Rummel durch die Grundlagen der Zeitreihenanalyse ist es offensichtlich, dass es eine Dualität zwischen AR - und MA-Prozessen gibt. Diese Dualität kann in der folgenden Tabelle zusammengefasst werden.

Comments

Popular Posts