Wednesday 26 July 2017

Exponentiell Gewichtet Gleitend Durchschnittlich Alpha


Erforschung der exponentiell gewichteten beweglichen durchschnittlichen Volatilität ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, siehe Volatilität verwenden, um zukünftiges Risiko zu beurteilen.) Wir haben Googles aktuelle Aktienkursdaten verwendet, um die tägliche Volatilität auf der Grundlage von 30 Tagen Lagerbestand zu berechnen. In diesem Artikel werden wir die einfache Volatilität verbessern und den exponentiell gewichteten gleitenden Durchschnitt (EWMA) diskutieren. Historische Vs. Implizite Volatilität Zuerst können wir diese Metrik in ein bisschen Perspektive bringen. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit Prolog ist, messen wir die Geschichte in der Hoffnung, dass es prädiktiv ist. Implizite Volatilität hingegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Lesung siehe die Verwendungen und Grenzen der Volatilität.) Wenn wir uns nur auf die drei historischen Ansätze konzentrieren (links oben), haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Bewerben Sie ein Gewichtungsschema Zuerst haben wir Berechnen Sie die periodische Rückkehr. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rückkehr in kontinuierlich zusammengesetzten Begriffen ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. h. der Preis heute geteilt durch den Preis gestern und so weiter). Dies führt zu einer Reihe von täglichen Renditen, von u i zu u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. In dem vorherigen Artikel (mit Volatility To Gauge Future Risk), haben wir gezeigt, dass unter ein paar akzeptablen Vereinfachungen, die einfache Varianz ist der Durchschnitt der quadrierten Renditen: Beachten Sie, dass dies summiert jede der periodischen Renditen, dann teilt diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, es ist wirklich nur ein Durchschnitt der quadratischen periodischen Rückkehr. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Wenn also Alpha (a) ein Gewichtungsfaktor ist (speziell 1 m), dann sieht eine einfache Varianz so aus: Die EWMA verbessert sich auf einfache Abweichung Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Gestern (sehr neuere) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch die Verwendung des exponentiell gewichteten gleitenden Durchschnitts (EWMA) behoben, bei dem neuere Renditen ein größeres Gewicht auf die Varianz haben. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Der als Glättungsparameter bezeichnet wird. Lambda muss kleiner als eins sein. Unter dieser Bedingung wird anstelle von gleichen Gewichten jede quadrierte Rendite mit einem Multiplikator wie folgt gewichtet: Zum Beispiel neigt RiskMetrics TM, ein Finanzrisikomanagement-Unternehmen, dazu, ein Lambda von 0,94 oder 94 zu verwenden. In diesem Fall ist das erste ( (1 - 0,94) (94) 0 6. Die nächste quadratische Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von Exponential in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muss) des vorherigen Tagegewichts. Dies stellt eine Varianz sicher, die gewichtet oder voreingenommen auf neuere Daten ist. (Um mehr zu erfahren, schau dir das Excel-Arbeitsblatt für Googles-Volatilität an.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google ist unten dargestellt. Die einfache Volatilität wirkt effektiv jede periodische Rendite um 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Kursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass Spalte P ein Gewicht von 6, dann 5.64, dann 5.3 und so weiter zuteilt. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die ganze Serie (in Spalte Q) zusammengefasst haben, haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und EWMA im Googles-Fall Sein signifikant: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (siehe die Kalkulationstabelle für Details). Anscheinend hat sich die Googles-Volatilität in jüngster Zeit niedergelassen, eine einfache Varianz könnte künstlich hoch sein. Heutige Varianz ist eine Funktion von Pior Days Variance Youll bemerken wir brauchten, um eine lange Reihe von exponentiell abnehmenden Gewichten zu berechnen. Wir werden die Mathematik hier nicht machen, aber eines der besten Features der EWMA ist, dass die ganze Serie bequem auf eine rekursive Formel reduziert: Rekursive bedeutet, dass heutige Varianzreferenzen (d. h. eine Funktion der vorherigen Tagesabweichung) ist. Sie finden diese Formel auch in der Kalkulationstabelle, und sie erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der vulkanischen Varianz (gewichtet durch Lambda) plus gestern quadrierte Rückkehr (gewogen von einem Minus Lambda). Beachten Sie, wie wir nur zwei Begriffe zusammenfügen: gestern gewichtete Varianz und gestern gewichtet, quadratische Rückkehr. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. RiskMetrics 94) zeigt einen langsamen Abfall in der Serie an - in relativer Hinsicht werden wir mehr Datenpunkte in der Serie haben und sie werden langsamer abfallen. Auf der anderen Seite, wenn wir das Lambda reduzieren, zeigen wir einen höheren Zerfall an: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, also kannst du mit seiner Empfindlichkeit experimentieren). Zusammenfassung Volatilität ist die momentane Standardabweichung eines Bestandes und die häufigste Risikometrität. Es ist auch die Quadratwurzel der Varianz. Wir können die Abweichung historisch oder implizit (implizite Volatilität) messen. Wenn man historisch misst, ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Abweichung ist, dass alle Renditen das gleiche Gewicht bekommen. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch die Zuordnung von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße verwenden, aber auch ein größeres Gewicht auf neuere Renditen geben. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionische Schildkröte.) Ein Erstgebot für ein bankrottes Unternehmen039s Vermögenswerte von einem interessierten Käufer, der von der Konkursgesellschaft gewählt wurde. Von einem Bieterpool aus. Artikel 50 ist eine Verhandlungs - und Vergleichsklausel im EU-Vertrag, in der die für jedes Land zu ergreifenden Maßnahmen umrissen werden. Beta ist ein Maß für die Volatilität oder das systematische Risiko eines Wertpapiers oder eines Portfolios im Vergleich zum Gesamtmarkt. Eine Art von Steuern, die auf Kapitalgewinne von Einzelpersonen und Kapitalgesellschaften angefallen sind. Kapitalgewinne sind die Gewinne, die ein Investor ist. Ein Auftrag, eine Sicherheit bei oder unter einem bestimmten Preis zu erwerben. Ein Kauflimitauftrag erlaubt es Händlern und Anlegern zu spezifizieren. Eine IRS-Regel (Internal Revenue Service), die strafrechtliche Abhebungen von einem IRA-Konto ermöglicht. Die Regel verlangt, dass. Ich habe eine Zeitreihe mit einem exponentiellen gleitenden Durchschnitt und ich möchte eine bewegte Rückkehr der EMA über die letzten m Perioden (etwas wie eine geglättete bewegte Rückkehr) zu berechnen. Y (t) ist der Wert der Zeitreihen zur Zeitperiode t S (t) ist der Wert einer EMA von Y zur Zeitperiode t Jetzt ist R (t) die Rückkehr der EMA über die letzten m Zeitperioden: My Frage: Wieviele Zeiträume sollte die EMA-Berechnung für eine gegebene m verwenden. Wenn genau die EMA mit S (t) alpha Y (t) (1-alpha) S (t-1) berechnet wird und alpha wird durch 2 gesetzt (N1), dann wie sollte N von m im abhängen, dass N genügend kleiner als m sein sollte, um eine Überlappung von Y-Werten zu verhindern, die bei der Berechnung von S (t) und S (tm) verwendet werden. Irgendwelche Theorien oder Best Practices über dieses Dies ist eigentlich ein ziemlich komplexes Problem. Es gibt ein paar Richtungen, die man sich anschauen kann. Ein Weg, der typischerweise in der Prognose-Literatur empfohlen wird, ist für den Prognosefehler zu optimieren. Wenn Sie eine bestimmte Anwendung im Auge haben, können Sie Ihre eigene Kostenfunktion definieren, um zu optimieren. Eine andere Ansicht hierfür ist, die EWMA als Staatsraummodell zu betrachten, dann ist das Problem gleichbedeutend mit der Einrichtung eines geeigneten Kalman-Filters, den man mit MLE machen kann, siehe zB Zeitreihenanalyse nach staatlichen Raummethoden Es gibt andere Richtungen Du kannst gehen, aber ich denke, das wird dir eine idea. Forecasting von Smoothing Techniques Diese Seite ist ein Teil der JavaScript E-Labs Lernobjekte für die Entscheidungsfindung. Andere JavaScript in dieser Serie sind unter verschiedenen Anwendungsbereichen im MENU-Bereich auf dieser Seite kategorisiert. Eine Zeitreihe ist eine Folge von Beobachtungen, die rechtzeitig bestellt werden. Inhärent in der Sammlung von Daten über die Zeit genommen ist eine Form der zufälligen Variation. Es gibt Methoden zur Verringerung der Aufhebung der Wirkung durch zufällige Variation. Weit verbreitete Techniken sind Glättung. Diese Techniken zeigen, wenn sie richtig angewendet werden, deutlicher die zugrunde liegenden Trends. Geben Sie die Zeitreihe Row-weise in der Reihenfolge ein, beginnend von der linken oberen Ecke und den Parameter (s), und klicken Sie dann auf die Schaltfläche Berechnen, um eine Vorhersage zu erhalten. Blank Boxen sind nicht in den Berechnungen enthalten, aber Nullen sind. Wenn Sie Ihre Daten eingeben, um von Zelle zu Zelle in der Datenmatrix zu wechseln, benutzen Sie die Tabulatortaste nicht Pfeil oder geben Sie die Tasten ein. Merkmale der Zeitreihen, die durch die Prüfung ihres Graphen aufgedeckt werden könnten. Mit den prognostizierten Werten und dem Residualverhalten, Bedingungsprognosemodellierung. Moving Averages: Moving Averages gehören zu den beliebtesten Techniken für die Vorverarbeitung von Zeitreihen. Sie werden verwendet, um zufälliges weißes Rauschen aus den Daten zu filtern, um die Zeitreihe glatter zu machen oder sogar bestimmte in der Zeitreihe enthaltene Informationskomponenten zu betonen. Exponentielle Glättung: Dies ist ein sehr beliebtes Schema, um eine geglättete Zeitreihe zu produzieren. Während bei fortlaufenden Mitteln die bisherigen Beobachtungen gleich gewichtet werden, weist Exponentialglättung exponentiell abnehmende Gewichte zu, wenn die Beobachtung älter wird. Mit anderen Worten, die jüngsten Beobachtungen werden bei der Prognose relativ viel mehr gegeben als die älteren Beobachtungen. Double Exponential Smoothing ist besser bei der Handhabung von Trends. Triple Exponential Glättung ist besser bei der Behandlung von Parabel Trends. Ein exponentiell gewichteter gleitender Durchschnitt mit einer Glättungskonstante a. Entspricht etwa einem einfachen gleitenden Mittelwert der Länge (d. H. Periode) n, wobei a und n verwandt sind durch: a 2 (n1) OR n (2 - a) a. So würde beispielsweise ein exponentiell gewichteter gleitender Durchschnitt mit einer Glättungskonstante gleich 0,1 etwa einem 19-tägigen gleitenden Durchschnitt entsprechen. Und ein 40-Tage einfacher gleitender Durchschnitt würde etwa einem exponentiell gewichteten gleitenden Durchschnitt entsprechen, wobei eine Glättungskonstante gleich 0,04878 ist. Holts Linear Exponential Glättung: Angenommen, die Zeitreihe ist nicht saisonal, aber zeigt Trend. Holts-Methode schätzt sowohl den aktuellen Level als auch den aktuellen Trend. Beachten Sie, dass der einfache gleitende Durchschnitt ein besonderer Fall der exponentiellen Glättung ist, indem die Periode des gleitenden Durchschnitts auf den ganzzahligen Teil von (2-Alpha) Alpha gesetzt wird. Für die meisten Geschäftsdaten ist ein Alpha-Parameter kleiner als 0,40 oft wirksam. Jedoch kann man eine Gittersuche des Parameterraums mit 0,1 bis 0,9 mit Inkrementen von 0,1 durchführen. Dann hat das beste Alpha den kleinsten Mean Absolute Error (MA Error). Wie man mehrere Glättungsmethoden vergleicht: Obwohl es numerische Indikatoren für die Beurteilung der Genauigkeit der Prognose-Technik gibt, ist der am weitesten verbreitete Ansatz bei der Verwendung visueller Vergleich von mehreren Prognosen, um ihre Genauigkeit zu beurteilen und wählen Sie unter den verschiedenen Vorhersage Methoden. Bei diesem Ansatz muss man auf demselben Graphen die ursprünglichen Werte einer Zeitreihenvariablen und die vorhergesagten Werte aus verschiedenen Prognosemethoden (unter Verwendung von zB Excel) aufzeichnen, wodurch ein visueller Vergleich erleichtert wird. Sie können die vorherigen Prognosen durch Glättungstechniken JavaScript verwenden, um die vergangenen Prognosewerte zu erhalten, die auf Glättungstechniken basieren, die nur einen einzelnen Parameter verwenden. Holt - und Winters-Methoden verwenden zwei bzw. drei Parameter, daher ist es keine leichte Aufgabe, die optimalen oder sogar nahezu optimalen Werte durch Versuche und Fehler für die Parameter auszuwählen. Die einzige exponentielle Glättung unterstreicht die kurzfristige Perspektive, die sie auf die letzte Beobachtung setzt und basiert auf der Bedingung, dass es keinen Trend gibt. Die lineare Regression, die eine kleinste Quadrate zu den historischen Daten passt (oder transformierte historische Daten), repräsentiert die lange Reichweite, die auf dem grundlegenden Trend bedingt ist. Holts lineare exponentielle Glättung erfasst Informationen über den letzten Trend. Die Parameter in Holts-Modell sind Pegel-Parameter, die verringert werden sollten, wenn die Menge der Datenvariation groß ist und der Trends-Parameter erhöht werden sollte, wenn die aktuelle Trendrichtung durch die kausalen Faktoren unterstützt wird. Kurzfristige Prognose: Beachten Sie, dass jedes JavaScript auf dieser Seite eine einstufige Prognose bietet. Um eine zweistufige Prognose zu erhalten. Fügen Sie einfach den prognostizierten Wert dem Ende der Zeitreihendaten hinzu und klicken Sie dann auf dieselbe Schaltfläche Berechnen. Sie können diesen Vorgang für ein paar Mal wiederholen, um die benötigten kurzfristigen Prognosen zu erhalten. Dieser Repo liefert exponentiell gewichtete Moving Average Algorithmen oder EWMAs kurz, basierend auf unserem Quantifying Abnormal Behavior Talk. Exponentiell gewichteter bewegter Durchschnitt Ein exponentiell gewichteter gleitender Durchschnitt ist ein Weg, um kontinuierlich eine Art von Durchschnitt für eine Reihe von Zahlen zu berechnen, da die Zahlen ankommen. Nachdem ein Wert in der Reihe dem Durchschnitt hinzugefügt wird, nimmt sein Gewicht im Durchschnitt exponentiell über die Zeit ab. Dies beeinträchtigt den Durchschnitt zu neueren Daten. EWMAs sind aus mehreren Gründen nützlich, vor allem ihre kostengünstigen Rechen - und Speicherkosten sowie die Tatsache, dass sie die jüngste zentrale Tendenz der Wertereihe darstellen. Der EWMA-Algorithmus erfordert einen Zerfallsfaktor, alpha. Je größer das Alpha, desto mehr ist der Durchschnitt in der jüngsten Geschichte voreingenommen. Das Alpha muss zwischen 0 und 1 liegen und ist typischerweise eine ziemlich kleine Zahl, wie z. B. 0,04. Wir werden die Wahl von Alpha später besprechen. Der Algorithmus arbeitet also im Pseudocode: Multiplizieren Sie die nächste Zahl in der Reihe mit alpha. Multiplizieren Sie den aktuellen Wert des Durchschnitts mit 1 minus alpha. Fügen Sie das Ergebnis der Schritte 1 und 2 hinzu und speichern Sie es als den neuen aktuellen Wert des Durchschnitts. Wiederholen Sie für jede Nummer in der Serie. Es gibt spezielle Fallverhalten für die Initialisierung des aktuellen Wertes, und diese variieren zwischen den Implementierungen. Ein Ansatz ist, mit dem ersten Wert in der Reihe zu beginnen, ein anderer ist, die ersten 10 oder so Werte in der Reihe mit einem arithmetischen Mittelwert zu bewerten und dann die inkrementelle Aktualisierung des Durchschnitts zu beginnen. Jede Methode hat Vor-und Nachteile. Es kann helfen, es bildhaft zu betrachten. Angenommen, die Serie hat fünf Zahlen, und wir wählen Alpha, um 0,50 für die Einfachheit zu sein. Heres die Serie, mit Zahlen in der Nachbarschaft von 300. Jetzt können wir den gleitenden Durchschnitt dieser Zahlen nehmen. Zuerst setzen wir den Mittelwert auf den Wert der ersten Zahl. Als nächstes multiplizieren wir die nächste Zahl mit alpha, multiplizieren Sie den aktuellen Wert mit 1-alpha und fügen Sie hinzu, um einen neuen Wert zu erzeugen. Das geht weiter, bis wir fertig sind. Beachten Sie, wie jeder der Werte in der Serie um die Hälfte jedes Mal, wenn ein neuer Wert hinzugefügt wird, und die Oberseite der Balken im unteren Teil des Bildes die Größe des gleitenden Durchschnitts darstellt. Es ist ein geglättetes oder Tiefpass, Durchschnitt der Originalreihe. Betrachten Sie eine feste Größe gleitenden Fenster gleitenden Durchschnitt (nicht ein exponentiell gewichtet gleitenden Durchschnitt), die durchschnittlich über die vorherigen N Proben. Was ist das Durchschnittsalter jeder Probe Es ist N2. Nun nehmen wir an, dass Sie eine EWMA konstruieren möchten, deren Proben das gleiche Durchschnittsalter haben. Die Formel zur Berechnung des dazu benötigten Alphas lautet: alpha 2 (N1). Beweis ist im Buch Produktions - und Betriebsanalyse von Steven Nahmias. So, zum Beispiel, wenn Sie eine Zeitreihe mit Samples einmal pro Sekunde haben, und Sie wollen den gleitenden Durchschnitt über die vorherige Minute erhalten, sollten Sie ein Alpha von .032786885 verwenden. Dies ist übrigens die Konstante Alpha für diese Repositorys SimpleEWMA verwendet. Dieses Repository enthält zwei Implementierungen des EWMA-Algorithmus mit unterschiedlichen Eigenschaften. Die Implementierungen entsprechen alle der MovingAverage-Schnittstelle und der Konstruktor gibt diesen Typ zurück. Die gegenwärtigen Implementierungen nehmen ein implizites Zeitintervall von 1,0 zwischen jeder hinzugefügten Probe an. Das heißt, der Ablauf der Zeit wird behandelt, als ob es das gleiche wie die Ankunft der Proben ist. Wenn Sie zeitbasierten Zerfall benötigen, wenn die Proben nicht genau in festgelegten Intervallen ankommen, dann wird dieses Paket derzeit nicht Ihre Bedürfnisse unterstützen. Ein SimpleEWMA ist für niedrigen CPU - und Speicherverbrauch ausgelegt. Es wird ein anderes Verhalten als das VariableEWMA aus mehreren Gründen haben. Es hat keine Aufwärmphase und es benutzt einen konstanten Verfall. Diese Eigenschaften lassen es weniger Speicher benötigen. Es wird sich auch anders verhalten, wenn es gleich Null ist, was als uninitialisiert angenommen wird. Wenn also ein Wert wahrscheinlich über die Zeit null wird, dann wird jeder Wert ungleich Null zu einem scharfen Sprung statt einer kleinen Änderung führen. Im Gegensatz zu SimpleEWMA, unterstützt dies ein benutzerdefiniertes Alter, das gespeichert werden muss und somit mehr Speicher benötigt. Es hat auch eine Aufwärmzeit, wenn du anfängst, Werte hinzuzufügen. Es wird einen Wert von 0,0 berichten, bis Sie die erforderliche Anzahl von Proben hinzugefügt haben. Es verwendet etwas Speicher, um die Anzahl der hinzugefügten Samples zu speichern. Als Ergebnis verwendet es ein bisschen mehr als zweimal die Erinnerung an SimpleEWMA. Sehen Sie sich die hier angebotene GoDoc-Dokumentation an. Wir akzeptieren nur Pull-Anfragen für kleinere Korrekturen oder Verbesserungen. Dies beinhaltet: Kleine Bugfixes Typos Dokumentation oder Kommentare Bitte öffnen Sie Fragen, um neue Funktionen zu besprechen. Pull-Anfragen für neue Features werden abgelehnt, daher empfehlen wir, das Repository zu forcieren und Änderungen an Ihrer Gabel für Ihren Anwendungsfall vorzunehmen. Dieses Repository ist Copyright (c) 2013 VividCortex, Inc. Alle Rechte vorbehalten. Es ist unter der MIT-Lizenz lizenziert. Bitte beachten Sie die LICENSE-Datei für gültige Lizenzbestimmungen.

No comments:

Post a Comment