Monday, October 24, 2016

Autokorrelation funktion gleitender durchschnittsprozess

Zweck: Überprüfung der Zufallszahlen Autokorrelationsdiagramme (Box und Jenkins, S. 28-32) sind ein gängiges Werkzeug zur Überprüfung der Zufälligkeit in einem Datensatz. Diese Zufälligkeit wird durch Berechnen von Autokorrelationen für Datenwerte bei variierenden Zeitverzögerungen ermittelt. Wenn sie zufällig sind, sollten solche Autokorrelationen nahezu null für irgendwelche und alle zeitlichen Verzögerungen sein. Wenn nicht-zufällig, dann werden eine oder mehrere der Autokorrelationen signifikant ungleich Null sein. Darüber hinaus werden Autokorrelationsdiagramme in der Modellidentifikationsstufe für autoregressive, gleitende mittlere Zeitreihenmodelle von Box-Jenkins verwendet. Autokorrelation ist nur ein Maß der Zufälligkeit Beachten Sie, dass unkorreliert nicht unbedingt zufällig bedeutet. Daten mit signifikanter Autokorrelation sind nicht zufällig. Daten, die keine signifikante Autokorrelation aufweisen, können jedoch auf andere Weise noch nicht-zufällig auftreten. Autokorrelation ist nur ein Maß der Zufälligkeit. Im Rahmen der Modellvalidierung (die der primäre Typ der Zufälligkeit ist, die wir im Handbuch behandeln) ist die Überprüfung auf Autokorrelation typischerweise ein ausreichender Test der Zufälligkeit, da die Residuen von schlechten Anpassungsmodellen dazu tendieren, nicht-subtile Zufälligkeit zu zeigen. Einige Anwendungen erfordern jedoch eine strengere Bestimmung der Zufälligkeit. In diesen Fällen wird eine Batterie von Tests, die eine Überprüfung auf Autokorrelation einschließen kann, angewandt, da Daten in vielen verschiedenen und oft subtilen Arten nicht-zufällig sein können. Ein Beispiel dafür, wo eine strengere Überprüfung der Zufälligkeit erforderlich ist, wäre das Testen von Zufallszahlengeneratoren. Beispiel-Diagramm: Autokorrelationen sollten nahe-Null für die Zufälligkeit sein. Dies ist bei diesem Beispiel nicht der Fall, so dass die Zufallsannahme fehlschlägt. Dieses Beispiel-Autokorrelationsdiagramm zeigt, dass die Zeitreihe nicht zufällig ist, sondern vielmehr einen hohen Grad an Autokorrelation zwischen benachbarten und nahe benachbarten Beobachtungen aufweist. Definition: r (h) versus h Autokorrelationsdiagramme werden durch vertikale Achse gebildet: Autokorrelationskoeffizient, wobei C h die Autokovarianzfunktion ist und C 0 die Varianzfunktion ist. Beachten Sie, dass R h zwischen -1 und 1 liegt Folgende Formel für die Autokovarianz-Funktion Obwohl diese Definition weniger Vorspannung hat, hat die (1 / N) - Formulierung einige wünschenswerte statistische Eigenschaften und ist die am häufigsten in der Statistikliteratur verwendete Form. Siehe Seiten 20 und 49-50 in Chatfield für Details. Horizontale Achse: Zeitverzögerung h (h 1, 2, 3.) Die obige Zeile enthält auch mehrere horizontale Bezugslinien. Die Mittellinie ist auf Null. Die anderen vier Zeilen sind 95 und 99 Konfidenzbänder. Beachten Sie, dass es zwei verschiedene Formeln für die Erzeugung der Vertrauensbänder gibt. Wenn das Autokorrelationsdiagramm verwendet wird, um auf Zufälligkeit zu testen (dh es gibt keine Zeitabhängigkeit in den Daten), wird die folgende Formel empfohlen: wobei N die Stichprobengröße ist, z die kumulative Verteilungsfunktion der Standardnormalverteilung und (alpha ) Ist das Signifikanzniveau. In diesem Fall haben die Vertrauensbänder eine feste Breite, die von der Probengröße abhängt. Dies ist die Formel, die verwendet wurde, um die Vertrauensbänder im obigen Diagramm zu erzeugen. Autokorrelationsdiagramme werden auch in der Modellidentifikationsstufe für die Montage von ARIMA-Modellen verwendet. In diesem Fall wird für die Daten ein gleitendes Durchschnittsmodell angenommen und die folgenden Konfidenzbänder erzeugt: wobei k die Verzögerung, N die Stichprobengröße, z die kumulative Verteilungsfunktion der Standardnormalverteilung und (alpha) ist Das Signifikanzniveau. In diesem Fall nehmen die Vertrauensbänder zu, wenn die Verzögerung zunimmt. Das Autokorrelationsdiagramm kann Antworten auf die folgenden Fragen liefern: Sind die Daten zufällig Ist eine Beobachtung, die mit einer angrenzenden Beobachtung in Beziehung steht, ist eine Beobachtung, die mit einer zweimal entfernten Beobachtung zusammenhängt (usw.) Ist die beobachtete Zeitreihe weißes Rauschen Ist die beobachtete Zeitreihe sinusförmig Ist die beobachtete Zeitreihe autoregressiv Was ist ein geeignetes Modell für die beobachtete Zeitreihe Ist das Modell gültig und ausreichend Ist die Formel ss / sqrt gültig Bedeutung: Sicherstellung der Gültigkeit der technischen Ergebnisse Randomness (zusammen mit festem Modell, fester Variation und fester Verteilung) Ist eine der vier Annahmen, die typischerweise allen Messprozessen zugrunde liegen. Die Zufallsannahme ist aus den folgenden drei Gründen von entscheidender Bedeutung: Die meisten standardmäßigen statistischen Tests hängen von der Zufälligkeit ab. Die Gültigkeit der Testresultate steht in direktem Zusammenhang mit der Gültigkeit der Zufallsannahme. Viele häufig verwendete statistische Formeln hängen von der Zufallsannahme ab, wobei die häufigste Formel die Formel zur Bestimmung der Standardabweichung des Stichprobenmittels ist: wobei s die Standardabweichung der Daten ist. Obwohl stark verwendet, sind die Ergebnisse aus der Verwendung dieser Formel ohne Wert, es sei denn, die Zufälligkeitsannahme gilt. Für univariate Daten ist das Standardmodell Wenn die Daten nicht zufällig sind, ist dieses Modell falsch und ungültig, und die Schätzungen für die Parameter (wie die Konstante) werden unsinnig und ungültig. Kurz, wenn der Analytiker nicht auf Zufälligkeit prüft, dann wird die Gültigkeit vieler statistischer Schlüsse verdächtig. Das Autokorrelationsdiagramm ist eine ausgezeichnete Möglichkeit, auf solche Zufälligkeit zu überprüfen. Der erste Schritt bei der Entwicklung eines Box-Jenkins-Modells besteht darin, festzustellen, ob die Serie stationär ist und ob es eine signifikante Saisonalität gibt, die modelliert werden muss. Stationarität kann anhand eines Ablaufablaufplots beurteilt werden. Das Ablaufdiagramm sollte eine konstante Position und Skalierung aufweisen. Es kann auch aus einem Autokorrelationsdiagramm nachgewiesen werden. Insbesondere wird die Nichtstationarität oft durch eine Autokorrelationsdiagramm mit sehr langsamem Abfall angezeigt. Differenzierung zur Stationarität Box und Jenkins empfehlen den differenzierenden Ansatz, um Stationarität zu erreichen. Jedoch kann auch das Anpassen einer Kurve und das Subtrahieren der angepassten Werte aus den ursprünglichen Daten auch im Zusammenhang mit Box-Jenkins-Modellen verwendet werden. Bei der Modellidentifizierungsphase ist es unser Ziel, jahreszeitliche Erkennung, falls vorhanden, zu erkennen und den Auftrag für die saisonalen autoregressiven und saisonal gleitenden Durchschnittsbedingungen zu ermitteln. Für viele Serien ist die Periode bekannt und ein einzelner Saisonalitätsausdruck ist ausreichend. Zum Beispiel für monatliche Daten würden wir typischerweise entweder eine saisonale AR 12 Begriff oder eine saisonale MA 12 Begriff. Bei Box-Jenkins-Modellen wird das Modell vor der Montage nicht explizit entfernt. Stattdessen beinhalten wir die Reihenfolge der Saisonbegriffe in der Modellspezifikation zur ARIMA-Schätzsoftware. Es kann jedoch hilfreich sein, einen saisonalen Unterschied zu den Daten anzuwenden und die Autokorrelation und die partiellen Autokorrelationsdiagramme zu regenerieren. Dies kann bei der Modellidentifizierung der nicht-saisonalen Komponente des Modells helfen. In einigen Fällen kann die saisonale Differenzierung die meisten oder alle der Saisonalität Wirkung zu entfernen. Identifizieren Sie p und q Sobald Stationarität und Saisonalität adressiert worden sind, ist der nächste Schritt, die Reihenfolge (d. H. Die (p) und (q)) der autoregressiven und gleitenden Durchschnittsterme zu identifizieren. Autokorrelation und partielle Autokorrelationsdiagramme Die primären Werkzeuge dafür sind das Autokorrelationsdiagramm und das partielle Autokorrelationsdiagramm. Die Stichproben-Autokorrelationsdiagramm und die Stichproben-Autokorrelationsdiagramm werden mit dem theoretischen Verhalten dieser Diagramme verglichen, wenn die Reihenfolge bekannt ist. Reihenfolge des Autoregressiven Prozesses ((p)) Speziell für ein AR (1) - Verfahren sollte die Autokorrelationsfunktion der Probe eine exponentiell abnehmende Erscheinung aufweisen. AR-Prozesse höherer Ordnung sind jedoch oft ein Gemisch aus exponentiell abnehmenden und gedämpften sinusförmigen Komponenten. Für autoregressive Prozesse höherer Ordnung muss die Stichprobenautokorrelation mit einem partiellen Autokorrelationsdiagramm ergänzt werden. Die partielle Autokorrelation eines AR ((p)) - Prozesses wird bei der Verzögerung (p & sub1;) und größer größer, so daß wir die partielle Autokorrelationsfunktion untersuchen, um festzustellen, ob es einen Beweis für eine Abweichung von Null gibt. Dies wird in der Regel durch das Platzieren eines 95-Konfidenzintervalls auf das partielle Autokorrelationsdiagramm der Probe bestimmt (die meisten Softwareprogramme, die Beispiel-Autokorrelationsdiagramme erzeugen, werden ebenfalls dieses Konfidenzintervall aufzeichnen). Wenn das Softwareprogramm nicht das Konfidenzband erzeugt, beträgt es ungefähr (pm 2 / sqrt), wobei (N) die Stichprobengröße ist. Ordnung des gleitenden Durchschnittsprozesses ((q)) Die Autokorrelationsfunktion eines MA ((q)) Prozesses wird bei der Verzögerung (q & sub1;) und größer größer, so dass wir die Autokorrelationsfunktion untersuchen, um zu sehen, wo sie im Wesentlichen Null wird. Wir tun dies, indem Sie die 95 Konfidenzintervall für die Probe Autokorrelationsfunktion auf der Probe Autokorrelation Grundstück platzieren. Die meisten Software, die das Autokorrelationsdiagramm erzeugen kann, kann auch dieses Vertrauensintervall erzeugen. Die Probe partielle Autokorrelationsfunktion ist in der Regel nicht hilfreich für die Ordnung des gleitenden Durchschnitts Prozess zu identifizieren. Form der Autokorrelationsfunktion In der folgenden Tabelle wird zusammengefasst, wie die Autokorrelationsfunktion für die Modellidentifikation verwendet wird. Die inverse Autokorrelationsfunktion (SIACF) spielt bei der ARIMA-Modellierung die gleiche Rolle wie die partielle Autokorrelationsfunktion (SPACF) Aber in der Regel zeigt subset und saisonale autoregressive Modelle besser als die SPACF. Zusätzlich kann die SIACF zum Detektieren einer Überdifferenzierung nützlich sein. Wenn die Daten von einem nichtstationären oder nahezu nichtstationären Modell stammen, weist die SIACF die Merkmale eines nichtinvertierbaren gleitenden Durchschnitts auf. Ebenso, wenn die Daten von einem Modell mit einem nichtinvertierbaren gleitenden Durchschnitt kommen, hat die SIACF nichtstationäre Eigenschaften. Insbesondere wenn die Daten überdifferenziert worden sind, sieht die SIACF wie eine SACF aus einem nichtstationären Prozess aus. Die inverse Autokorrelationsfunktion wird in Lehrbüchern nicht oft diskutiert, so dass hier eine kurze Beschreibung gegeben ist. Vollständigere Gespräche finden sich in Cleveland (1972), Chatfield (1980) und Priestly (1981). Es sei W t durch den ARMA-Prozess (p, q) erzeugt, wobei t eine weiße Rauschsequenz ist. Wenn (B) invertierbar ist (dh wenn das Polynom in B keine Wurzeln kleiner oder gleich 1 hat), dann ist das Modell auch ein gültiges ARMA (q, p) - Modell. Dieses Modell wird manchmal als das Doppelmodell bezeichnet. Die Autokorrelationsfunktion (ACF) dieses Doppelmodells wird als inverse Autokorrelationsfunktion (IACF) des ursprünglichen Modells bezeichnet. Wenn das ursprüngliche Modell ein reines autoregressives Modell ist, dann ist die IACF eine ACF, die einem reinen gleitenden Durchschnittsmodell entspricht. Somit schneidet es stark ab, wenn die Verzögerung größer als p ist, ist dieses Verhalten ähnlich dem Verhalten der partiellen Autokorrelationsfunktion (PACF). Die Beispiel-inverse Autokorrelationsfunktion (SIACF) wird in der ARIMA-Prozedur durch die folgenden Schritte abgeschätzt. Durch die Yule-Walker-Gleichungen wird ein autoregressives Modell höherer Ordnung an die Daten angepasst. Die Ordnung des autoregressiven Modells zur Berechnung der SIACF ist das Minimum des NLAG-Wertes und die Hälfte der Anzahl der Beobachtungen nach der Differenzierung. Die SIACF wird dann als Autokorrelationsfunktion berechnet, die diesem autoregressiven Operator entspricht, wenn er als ein gleitender Durchschnittsoperator behandelt wird. Das heißt, die autoregressiven Koeffizienten werden mit sich selbst gefaltet und als Autokovarianzen behandelt. Unter bestimmten Bedingungen kann die Stichprobenverteilung der SIACF durch die Stichprobenverteilung der SACF des Dualmodells approximiert werden (Bhansali 1980). In den von ARIMA erzeugten Parametern befinden sich die Vertrauensgrenzmarken (.) Bei. Diese Grenzen begrenzen ein ungefähr 95 Konfidenzintervall für die Hypothese, dass die Daten von einem weißen Rauschenprozess stammen. Wissenschaft und Bildung Publishing Es ist ganz offensichtlich, dass die ACFs In (1.4) und die in (1.8) alle abgeschnitten nach Verzögerung zwei. Dies deutet darauf hin, dass ein gleitender Durchschnittsprozess der Ordnung zwei und ein reiner diagonaler bilinearer Zeitreihenprozess der Ordnung zwei ähnliche Autokorrelationsstrukturen aufweisen. Infolgedessen besteht die Möglichkeit, einen reinen diagonalen bilinearen Prozess der Ordnung zwei als einen gleitenden Durchschnittsprozess der Ordnung zwei zu klassifizieren. Die Leichtigkeit, mit der lineare Modelle angebracht werden, und die Praxis der Annäherung nichtlinearer Modelle durch lineare Modelle können auch eine Fehlspezifikation des nichtlinearen reinen diagonalen bilinearen Prozesses der Ordnung zwei verursachen. Aus dem Vorstehenden ist es unerlässlich, die statistische Implikation der vorgenannten Modell-Fehlklassifizierung zu untersuchen. In dieser Hinsicht konzentrieren wir uns auf die Straffunktion, die mit der Fehlklassifizierung eines PDB (2) - Prozesses als MA (2) - Verfahren einhergeht. 2. Beziehung zwischen den Parametern des reinen diagonalen bilinearen Prozesses der Ordnung 2 und des gleitenden durchschnittlichen Prozesses der Ordnung 2 Nachdem wir festgestellt haben, dass der gleitende mittlere Prozess der Ordnung zwei und der reine diagonale bilineare Prozess der Ordnung zwei ähnliche Autokorrelationsstrukturen aufweisen, lohnt es sich, daraus abzuleiten Die Beziehung zwischen den Parametern der beiden Modelle. Diese Beziehungen helfen uns, die Strafenfunktion für die Fehlklassifikation des nichtlinearen Modells als konkurrierendes lineares Modell zu erhalten. Die Methode der Momente, die die Gleichsetzung des ersten und des zweiten Moments des reinen diagonalen bilinearen Modells mit den entsprechenden Momenten des nicht gleitenden Durchschnittsprozesses der Ordnung zwei beinhaltet, wird zu diesem Zweck verwendet. Wenn wir die vollständige Tabelle mit 2129 Sätzen von Werten betrachten, können wir sehen, dass die Straffunktion für die Fehlklassifizierung eines PDB (2) - Prozesses als MA (2) - Prozess (P) positive Werte annimmt Für alle Werte von /. Aufrechtzuerhalten. Der positive Wert der Strafe für die Missklassifizierung eines PDB (2) - Verfahrens als MA (2) - Verfahren zeigt, dass diese Fehlklassifizierung zu einer Erhöhung der Varianz der Fehler führt. Dieser Befund stimmt mit den Ergebnissen überein, die in Bezug auf die Fehlklassifikation eines PDB (1) - Prozesses als MA (1) - Verfahren von 6 erhalten wurden. Für prädiktive Zwecke müssen wir die Beziehung zwischen P und / finden. Zuerst stellen wir P gegen jedes von / fest. Fig. 1 zeigt die Darstellung von P gegen. Tabelle 1. Strafen für verschiedene Parameterwerte von MA (2) Verfahren und PDB (2) Der p-Wert von 0,00 in der Tabelle 3 impliziert, dass das passende Regressionsmodell geeignet ist, die Beziehung zwischen P und / zu beschreiben. 4. Schlussfolgerung In dieser Studie haben wir die Wirkung einer falschen Klassifizierung eines reinen diagonalen bilinearen Prozesses der Ordnung 2 als einen gleitenden Durchschnittsprozess der Ordnung 2 bestimmt. Eine Strafenfunktion wurde definiert und wurde verwendet, um Strafen für die Fehlklassifizierung des reinen diagonalen bilinearen Prozesses der Ordnung zwei als den gleitenden Durchschnittsprozess der Ordnung zwei zu berechnen, der auf verschiedenen Sätzen von Werten der Parameter der beiden Prozesse basiert. Die berechneten Strafen haben positive Werte angenommen. Dies zeigte eine Erhöhung der Fehlerabweichung aufgrund der Fehlklassifizierung des reinen diagonalen bilinearen Prozesses der Ordnung zwei als einen gleitenden Durchschnittsprozess der Ordnung zwei an. Ein quadratisches Regressionsmodell wurde als geeignet angesehen, um die Strafen auf der Basis der Parameter des reinen diagonalen bilinearen Prozesses der Ordnung zwei zu prognostizieren. Referenzen Bessels, S. (2006). Ein Schritt jenseits der lösbaren Gleichung. Www. staff. science. uu. nc//AfstudeerscriptieSanderBessels. pdf (Diese Seite wurde im Juni 2013 besucht). Box, G. E. P. Jenkins, G. M. und Reinsel, G. C. (1994). Zeitreihenanalyse: Prognose und Kontrolle. 3. Aufl. (SIACF) spielt bei der ARIMA-Modellierung die gleiche Rolle wie die partielle Autokorrelationsfunktion (SPACF), zeigt aber in der Regel subsystem - und saisonal autoregressive Modelle besser als die SPACF an. Zusätzlich kann die SIACF zum Detektieren einer Überdifferenzierung nützlich sein. Wenn die Daten aus einem nichtstationären oder nahezu nichtstationären Modell stammen, hat die SIACF die Eigenschaften eines nichtinvertierbaren gleitenden Durchschnitts. Ebenso, wenn die Daten von einem Modell mit einem nichtinvertierbaren gleitenden Durchschnitt kommen, hat die SIACF nichtstationäre Eigenschaften und zerfällt daher langsam. Insbesondere wenn die Daten überdifferenziert worden sind, sieht die SIACF wie eine SACF aus einem nichtstationären Prozess aus. Die inverse Autokorrelationsfunktion wird in Lehrbüchern nicht oft diskutiert, so dass hier eine kurze Beschreibung gegeben ist. Vollständigere Gespräche finden sich in Cleveland (1972), Chatfield (1980) und Priestly (1981). Ist auch ein gültiges ARMA-Modell (q, p). Dieses Modell wird manchmal als das Doppelmodell bezeichnet. Die Autokorrelationsfunktion (ACF) dieses Doppelmodells wird als inverse Autokorrelationsfunktion (IACF) des ursprünglichen Modells bezeichnet. Wenn das ursprüngliche Modell ein reines autoregressives Modell ist, dann ist die IACF eine ACF, die einem reinen gleitenden Durchschnittsmodell entspricht. Somit schneidet es stark ab, wenn die Verzögerung größer als p ist, ist dieses Verhalten ähnlich dem Verhalten der partiellen Autokorrelationsfunktion (PACF). Die Beispiel-inverse Autokorrelationsfunktion (SIACF) wird in der ARIMA-Prozedur durch die folgenden Schritte abgeschätzt. Durch die Yule-Walker-Gleichungen wird ein autoregressives Modell höherer Ordnung an die Daten angepasst. Die Ordnung des autoregressiven Modells zur Berechnung der SIACF ist das Minimum des NLAG-Wertes und die Hälfte der Anzahl der Beobachtungen nach der Differenzierung. Die SIACF wird dann als Autokorrelationsfunktion berechnet, die diesem autoregressiven Operator entspricht, wenn er als ein gleitender Durchschnittsoperator behandelt wird. Das heißt, die autoregressiven Koeffizienten werden mit sich selbst gefaltet und als Autokovarianzen behandelt. Unter bestimmten Bedingungen kann die Stichprobenverteilung der SIACF durch die Stichprobenverteilung der SACF des Dualmodells approximiert werden (Bhansali 1980). In den von ARIMA erzeugten Parametern befinden sich die Vertrauensgrenzmarken (.) Bei. Diese Grenzen begrenzen ein ungefähr 95 Konfidenzintervall für die Hypothese, dass die Daten von einem weißen Rauschprozeß stammen.


No comments:

Post a Comment