Wednesday 12 July 2017

Exponentiell Gewichtet Gleitend

Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist eine Statistik für die Überwachung des Prozesses, die die Daten in einer Weise, die weniger und weniger Gewicht auf Daten, da sie weiter entfernt werden, in der Zeit. Vergleich von Shewhart-Kontrolldiagramm und EWMA-Kontrolltafel-Techniken Für die Shewhart-Diagrammsteuerungstechnik hängt die Entscheidung über den Zustand der Kontrolle des Prozesses zu irgendeinem Zeitpunkt (t) ausschließlich von der letzten Messung aus dem Verfahren ab, Der Grad der Richtigkeit der Schätzungen der Kontrollgrenzen aus historischen Daten. Für die EWMA-Steuerungstechnik hängt die Entscheidung von der EWMA-Statistik ab, die ein exponentiell gewichteter Durchschnitt aller vorherigen Daten ist, einschließlich der letzten Messung. Durch die Wahl des Gewichtungsfaktors (Lambda) kann die EWMA-Steuerprozedur empfindlich auf eine kleine oder allmähliche Drift in dem Prozess eingestellt werden, während die Shewhart-Steuerprozedur nur dann reagieren kann, wenn der letzte Datenpunkt außerhalb einer Kontrollgrenze liegt. Definition von EWMA Die berechnete Statistik ist: mbox t lambda Yt (1-lambda) mbox ,,, mbox ,,, t 1,, 2,, ldots ,, n. Wobei (mbox 0) der Mittelwert der historischen Daten (Ziel) (Yt) ist die Beobachtung zur Zeit (t) (n) die Anzahl der zu überwachenden Beobachtungen einschließlich (mbox 0) (0 Interpretation der EWMA - Dots sind die Rohdaten, die gezackte Linie ist die EWMA-Statistik im Laufe der Zeit. Das Diagramm zeigt uns, dass der Prozess in der Steuerung ist, weil alle (mbox t) zwischen den Kontroll-Grenzen liegen. Allerdings scheint es einen Trend nach oben für die letzten 5 Bei einer Zeitreihe xi möchte ich einen gewichteten gleitenden Durchschnitt mit einem Mittelungsfenster von N Punkten berechnen, bei dem die Gewichtungen für ältere Werte eher jüngere Werte annehmen. Bei der Auswahl der Gewichte verwende ich die bekannte Tatsache, dass eine geometrische Reihe Konvergiert zu 1, dh Summe (frac) k, sofern unendlich viele Terme genommen werden. Um eine diskrete Anzahl von Gewichtungen zu erhalten, die zu Eins summieren, nehme ich einfach die ersten N Glieder der geometrischen Reihe (frac) k und dann normalisiere Durch ihre Summe. Bei N4 ergeben sich zum Beispiel die nicht normierten Gewichte, die nach Normalisierung durch ihre Summe ergibt. Der gleitende Durchschnitt ist dann einfach die Summe des Produktes der letzten 4 Werte gegen diese normierten Gewichte. Diese Methode verallgemeinert sich in der offensichtlichen Weise zu bewegten Fenstern der Länge N und scheint auch rechnerisch einfach. Gibt es einen Grund, diese einfache Methode nicht zu verwenden, um einen gewichteten gleitenden Durchschnitt mit exponentiellen Gewichten zu berechnen, frage ich, weil der Wikipedia-Eintrag für EWMA komplizierter erscheint. Was mich fragt, ob die Lehrbuch-Definition von EWMA hat vielleicht einige statistische Eigenschaften, die die obige einfache Definition nicht oder sind sie in der Tat gleichwertig sind, beginnen Sie mit 1), dass es keine ungewöhnlichen Werte Und keine Pegelverschiebungen und keine Zeittrends und keine saisonalen Dummies 2), dass das optimale gewichtete Mittel Gewichte aufweist, die auf eine gleichmäßige Kurve fallen, die durch einen Koeffizienten 3 beschreibbar ist), dass die Fehlerabweichung konstant ist, dass es keine bekannten Ursachenreihen gibt Annahmen. Ndash IrishStat Okt 1 14 am 21:18 Ravi: In dem gegebenen Beispiel ist die Summe der ersten vier Ausdrücke 0,9375 0,06250,1250.250,5. Die ersten vier Ausdrücke haben also 93,8 des Gesamtgewichts (6,2 ist im abgeschnittenen Schwanz). Verwenden Sie diese, um normierte Gewichte zu erhalten, die zu einer Einheit durch Reskalierung (dividieren) um 0,9375 zusammenkommen. Dies ergibt 0,06667, 0,1333, 0,267, 0,5333. Ndash Assad Ebrahim Ich habe festgestellt, dass die Berechnung der exponentiell gewichteten laufenden Durchschnitte mit overline leftarrow overline alpha (x - overline), alphalt1 ist eine einfache einzeilige Methode, die leicht, wenn auch nur annähernd interpretierbar in Bezug auf Eine effektive Anzahl von Proben Nalpha (vergleichen Sie diese Form an die Form für die Berechnung der laufenden Mittelwert), erfordert nur das aktuelle Datum (und den aktuellen Mittelwert), und ist numerisch stabil. Technisch integriert dieser Ansatz alle Geschichte in den Durchschnitt. Die beiden Hauptvorteile bei der Verwendung des Vollfensters (im Gegensatz zum verkürzten, in der Frage diskutierten) liegen darin, dass es in einigen Fällen die analytische Charakterisierung der Filterung erleichtern kann, und es reduziert die Fluktuationen, die bei sehr großen (oder kleinen) Daten induziert werden Wert ist Teil des Datensatzes. Zum Beispiel betrachten das Filter-Ergebnis, wenn die Daten sind alle Null, außer für ein Datum, dessen Wert 106. beantwortet Nov 29 12 bei 0:33


No comments:

Post a Comment