Sunday, 26 November 2017

Przenoszenie średnio ściśle stacjonarne


Tak jak sugeruje tytuł, to jest mój problem: Niech Zt będzie ściśle stacjonarną sekwencją. Zdefiniuj Xt Zt theta Z. Pokaż, że ta sekwencja jest ściśle stacjonarna. Oto mój problem. Moja definicja ściśle stacjonarna jest taka, że ​​mamy rozkład (Zt, Z, kropki, Z) jest niezależny od t dla wszystkich t w mathbb i wszystkich h w mathbb. Ale jak widzę, mamy (Xt, X, kropki, X) (Zt theta Z, kropki, Z theta Z), które byłyby niezależne od t-1 przez to, jak przyjmuje się Zt. Jak zmienić to w niezależność? 12 lutego o 17:34 Nie sądzę, że to jest prawdziwy problem: niezależność od t-1 jest taka sama jak niezależność od t, a widzisz to wyraźnie, pisząc to bardziej explicitely: dla h1 otrzymujesz po prostu Zttheta Z sim Z teta Ztquadforall tinmathbb Z, która jest taka sama forall (t-1) inmathbb Z. Nie mylcie się przez zależność zmiennych, stacjonarność polega na ich rozkładzie, w rzeczywistości stała seria ma zmienne zależne, których rozkład jest niezależny od t. Czy też źle zrozumiałem twoje pytanie Krótkie wprowadzenie do współczesnej serii czasowej Definicja Szeregi czasowe to funkcja losowa x t argumentu t w zbiorze T. Innymi słowy, szereg czasowy jest rodziną zmiennych losowych. x t-1. x t. x t1. odpowiadający wszystkim elementom w zbiorze T, gdzie T ma być zbiorem nieograniczonym, nieskończonym. Definicja Obserwowany szereg czasowy t T e T o T traktowany jest jako część jednej realizacji funkcji losowej x t. Nieskończony zestaw możliwych realizacji, które można było zaobserwować, nazywa się zespołem. Aby bardziej rygorystycznie rzecz ujmować, szereg czasowy (lub funkcja losowa) jest rzeczywistą funkcją x (w, t) dwóch zmiennych w i t, gdzie wW i t T. Jeśli ustalimy wartość w. mamy prawdziwą funkcję x (t w) czasu t, która jest realizacją szeregów czasowych. Jeśli ustalimy wartość t, mamy zmienną losową x (w t). Dla danego punktu w czasie istnieje rozkład prawdopodobieństwa na x. Zatem funkcja losowa x (w, t) może być traktowana jako rodzina zmiennych losowych lub jako rodzina realizacji. Definicja Definiujemy funkcję rozkładu zmiennej losowej w danej t 0 jako P o) x (x). Podobnie możemy zdefiniować wspólny rozkład dla n zmiennych losowych Punkty, które odróżniają analizę szeregów czasowych od zwykłych analiz statystycznych, są następujące (1) Zasadniczą rolę odgrywa zależność między obserwacjami w różnych chronologicznych momentach w czasie. Innymi słowy, kolejność obserwacji jest ważna. W zwykłej analizie statystycznej zakłada się, że obserwacje są wzajemnie niezależne. (2) Domena t jest nieskończona. (3) Musimy wywnioskować z jednej realizacji. Realizacja zmiennej losowej można zaobserwować tylko raz w każdym momencie. W analizie wielowymiarowej mamy wiele obserwacji dotyczących skończonej liczby zmiennych. Ta krytyczna różnica wymaga założenia stacjonarności. Definicja Funkcja losowa x t jest uważana za ściśle stacjonarną, jeśli wszystkie funkcje rozkładu skończonego wymiaru określające x t pozostają takie same, nawet jeśli cała grupa punktów t 1. t 2. t n jest przesuwane wzdłuż osi czasu. Oznacza to, że dla dowolnych liczb całkowitych t 1. t 2. t n i k. Graficznie można sobie wyobrazić realizację serii stacjonarnej jako mającej nie tylko ten sam poziom w dwóch różnych przedziałach, ale także tę samą funkcję rozkładu, aż do parametrów, które ją definiują. Założenie stacjonarności czyni nasze życie prostszym i mniej kosztownym. Bez stacjonarności musielibyśmy często próbować proces w każdym punkcie czasowym, aby uzyskać charakterystykę funkcji rozkładu we wcześniejszej definicji. Stacjonarność oznacza, że ​​możemy skupić naszą uwagę na kilku najprostszych funkcjach numerycznych, tj. Momentach dystrybucji. Centralne momenty są określone przez Definicję (i) Średnia wartość szeregu czasowego t jest t j. Momentem pierwszego rzędu. (ii) Funkcja autokowariancji t to t j. drugi moment wokół średniej. Jeśli ts, masz wariancję x t. Będziemy używać do oznaczenia autokowariancji stacjonarnej serii, gdzie k oznacza różnicę między t i s. (iii) Funkcja autokorelacji (ACF) t jest używana do oznaczenia autokorelacji stacjonarnej serii, gdzie k oznacza różnicę między t i s. (iv) Częściowa autokorelacja (PACF). f kk. jest korelacją między z t i z tk po usunięciu ich wzajemnej liniowej zależności od zmiennych pośrednich z t1. z t2. z tk-1. Jednym prostym sposobem obliczenia częściowej autokorelacji między z t i z tk jest przeprowadzenie dwóch regresji, a następnie obliczenie korelacji między dwoma resztkowymi wektorami. Lub po zmierzeniu zmiennych jako odchyleń od ich średnich, częściowa autokorelacja może być znaleziona jako współczynnik regresji LS dla z t w modelu, w którym kropka nad zmienną wskazuje, że jest mierzona jako odchylenie od jej średniej. (v) Równania Yule-Walkera zapewniają istotną zależność pomiędzy częściowymi autokorelacjami a autokorelacjami. Pomnóż obie strony równania 10 przez z tk-j i spełnij oczekiwania. Ta operacja daje nam następujące równanie różnicowe w autokowariancji lub, jeśli chodzi o autokorelacje Ta pozornie prosta reprezentacja jest naprawdę potężnym wynikiem. Mianowicie, za j1,2. k możemy napisać pełny układ równań, znany jako równania Yule-Walker, Z algebry liniowej wiadomo, że macierz r s ma pełną rangę. Dlatego możliwe jest stosowanie reguły Cramerów kolejno dla k1,2. aby rozwiązać system częściowych autokorelacji. Pierwsze trzy to Mamy trzy ważne wyniki w serii ściśle stacjonarnej. Implikacją jest to, że możemy użyć dowolnej skończonej realizacji sekwencji do oszacowania średniej. Druga . jeśli t jest ściśle stacjonarne, a E t 2 lt. Sugeruje to, że autokowariancja zależy tylko od różnicy między t i s, a nie od ich momentu chronologicznego. W obliczeniach autokowariancji moglibyśmy użyć dowolnej pary interwałów, o ile czas między nimi był stały. I możemy użyć dowolnej skończonej realizacji danych do oszacowania autokowariancji. Po trzecie, funkcja autokorelacji w przypadku ścisłej stacjonarności jest podawana przez. Sugeruje się, że autokorelacja zależy również tylko od różnicy między ti s, i znowu mogą być oszacowane przez dowolną skończoną realizację danych. Jeśli naszym celem jest oszacowanie parametrów opisujących możliwe realizacje szeregów czasowych, to być może ścisła stacjonarność jest zbyt restrykcyjna. Na przykład, jeśli średnia i kowariancje x t są stałe i niezależne od chronologicznego punktu w czasie, to być może nie jest dla nas ważne, aby funkcja rozkładu była taka sama dla różnych przedziałów czasu. Definicja Funkcja losowa jest stacjonarna w szerokim sensie (lub słabo stacjonarna lub stacjonarna w sensie Khinchina lub kowariancja stacjonarna), jeśli m 1 (t) mi m 11 (t, s). Ścisła stacjonarność sama w sobie nie oznacza słabej stacjonarności. Słaba stacjonarność nie oznacza ścisłej stacjonarności. Ścisła stacjonarność z E t 2 lt oznacza słabą stacjonarność. Twierdzenia Ergodyczne dotyczą kwestii niezbędnych i wystarczających warunków do wnioskowania z jednej realizacji szeregu czasowego. Zasadniczo sprowadza się to do przyjęcia słabej stacjonarności. Twierdzenie Jeżeli t jest słabo stacjonarne ze średnią m i funkcją kowariancji, to znaczy, że dla dowolnego danego e gt 0 i h gt 0 istnieje pewna liczba T o taka, że ​​dla wszystkich T gt T o. wtedy i tylko wtedy, gdy Warunkiem koniecznym i wystarczającym jest wymieranie autokowiarian, w którym to przypadku średnia próby stanowi spójny estymator średniej populacji. Wniosek Jeśli t jest słabo stacjonarne z E tk xt 2 lt dla dowolnego t, a E tk xtx tsk x ts jest niezależne od t dla dowolnej liczby całkowitej s, to wtedy i tylko wtedy, gdy A Konsekwencją następstwa jest założenie, że xtx tk jest słabo stacjonarny. Twierdzenie Ergodyczne nie jest niczym więcej jak prawem wielkich liczb, gdy obserwacje są skorelowane. Ktoś mógłby zapytać w tym miejscu o praktyczne implikacje stacjonarności. Najczęstszym zastosowaniem technik szeregów czasowych jest modelowanie danych makroekonomicznych, zarówno teoretycznych, jak i ateistycznych. Jako przykład tego pierwszego można mieć model mnożnika-akceleratora. Aby model był nieruchomy, parametry muszą mieć określone wartości. Test modelu polega wówczas na zebraniu odpowiednich danych i oszacowaniu parametrów. Jeżeli oszacowania nie są zgodne ze stacjonarnością, wówczas należy ponownie przemyśleć model teoretyczny lub model statystyczny, lub oba. Mamy teraz dość maszyn, aby zacząć mówić o modelowaniu jednokierunkowych danych szeregów czasowych. Proces składa się z czterech etapów. 1. budowanie modeli z wiedzy teoretycznej i teoretycznej 2. identyfikacja modeli na podstawie danych (obserwowanych serii) 3. dopasowanie modeli (oszacowanie parametrów modelu (ów)) 4. sprawdzenie modelu Jeśli w czwartym kroku nie jesteśmy zadowolony, że wróciliśmy do pierwszego kroku. Proces jest iteracyjny, dopóki dalsze sprawdzanie i ponowna certyfikacja nie przyniosą dalszej poprawy wyników. Definicja diagramu Niektóre proste operacje obejmują: Operator przesunięcia wstecznego Bx tx t-1 Operator do przodu Fx tx t1 Operator różnicy 1 - B xtxt - x t-1 Operator różnicy zachowuje się w sposób zgodny ze stałą w nieskończonej serii . Oznacza to, że jego odwrotnością jest granica nieskończonej sumy. Mianowicie, -1 (1-B) -1 1 (1-B) 1BB 2. Operator integrujący S -1 Ponieważ jest to odwrotność operatora różnicy, operator integracji służy do konstruowania sumy. BUDOWANIE MODELU W tej sekcji przedstawiamy krótki przegląd najczęstszych rodzajów modeli szeregów czasowych. Na podstawie wiedzy na temat procesu generowania danych wybiera się klasę modeli do identyfikacji i oceny z następujących możliwości. Definicja Załóżmy, że Ex t m jest niezależne od t. Model taki jak z cechami nazywa się autoregresyjnym modelem porządku p, AR (p). Definicja Jeśli zmienna zależna od czasu (proces stochastyczny) t spełnia, wówczas t odpowiada właściwości Markowa. Na LHS oczekiwanie uwarunkowane jest nieskończoną historią x t. Na RHS jest on uwarunkowany tylko w części historii. Z definicji wynika, że ​​model AR (p) jest zgodny z własnością Markowa. Korzystając z operatora wstecznego przesunięcia możemy napisać nasz model AR jako twierdzenie. Warunkiem koniecznym i wystarczającym do tego, aby model AR (p) był stacjonarny, jest to, że wszystkie korzenie wielomianu leżą poza okręgiem koła. Przykład 1 Rozważmy AR (1) Jedynym pierwiastkiem z 1 - f 1 B 0 jest B 1 f 1. Warunek stacjonarności wymaga tego. Jeśli wtedy obserwowana seria okaże się bardzo szalona. Na przykład. rozważmy, w którym termin szumu białego ma rozkład normalny ze średnią zerową i wariancją jednej. Obserwacje zmieniają znak prawie przy każdej obserwacji. Jeśli, z drugiej strony, obserwowana seria będzie znacznie płynniejsza. W tej serii obserwacja ma tendencję do przekraczania 0, jeśli jej poprzednik był powyżej zera. Wariancja e t jest s 2 dla wszystkich t. Wariancja x t. kiedy ma on zero średnie, jest podane przez Ponieważ seria jest stacjonarna, możemy pisać. Stąd funkcja autokowariancji z serii AR (1) jest, zakładając bez utraty ogólności m 0 Aby zobaczyć, jak to wygląda pod względem parametrów AR, skorzystamy z faktu, że możemy napisać xt w następujący sposób Mnożenie przez x tk i przyjmowanie oczekiwań Zauważ, że autokowiary wymierają, gdy rośnie. Funkcja autokorelacji to autokowariancja podzielona przez wariancję terminu szumu białego. Lub,. Stosując wcześniejsze formuły Yule-Walker dla częściowych autokorelacji, które mamy Dla AR (1) autokorelacje wymierają wykładniczo, a częściowe autokorelacje wykazują szczyt z jednym opóźnieniem, a następnie zero. Przykład 2 Rozważmy AR (2) Powiązany wielomian w operatorze lagów. Korzenie można znaleźć za pomocą równania kwadratowego. Korzenie są wtedy, gdy korzenie są prawdziwe i w konsekwencji seria spadnie wykładniczo w odpowiedzi na szok. Kiedy korzenie są złożone, a seria pojawi się jako fala z tłumionym znakiem. Twierdzenie o stacjonarności nakłada następujące warunki na współczynniki AR. Autowariancja dla procesu AR (2), ze średnią zerową, dzieli się przez wariancję xt daje funkcję autokorelacji. Ponieważ możemy pisać podobnie dla drugiego i trzeciego autokorelacji. autokorelacje są rozwiązywane rekurencyjnie. Ich wzór jest sterowany przez korzenie równania różniczkowego liniowego drugiego rzędu. Jeśli korzenie są prawdziwe, wówczas autokorelacje będą się wykładać wykładniczo. Gdy korzenie są złożone, autokorelacje pojawią się jako wytłumiona fala sinusoidalna. Używając równań Yule-Walker, częściowe autokorelacje są ponownie, autokorelacje powoli wymierają. Częściowa autokorelacja z drugiej strony jest dość charakterystyczna. Ma skoki na jednym i dwóch opóźnieniach, a następnie zero. Twierdzenie Jeśli x t jest stacjonarnym procesem AR (p), to może być równoważnie zapisany jako model filtra liniowego. Oznacza to, że wielomian w operatorze przesunięcia wstecznego może być odwrócony, a AR (p) zapisany jako średnia ruchoma nieskończonego rzędu. Przykład Załóżmy, że z t jest procesem AR (1) ze średnią zerową. To, co jest prawdziwe w bieżącym okresie, musi również być prawdziwe w odniesieniu do poprzednich okresów. Tak więc przez rekursywne podstawianie możemy pisać Kwadrat po obu stronach i przyjmować oczekiwania po prawej stronie znikają jako k od f 1. Dlatego suma zbiega się do zt w średniej kwadratowej. Możemy przepisać model AR (p) jako filtr liniowy, o którym wiemy, że jest stacjonarny. Funkcja autokorelacji i częściowo autokorelacja Załóżmy, że stacjonarna seria zt ze średnią zero jest autoregresyjna. Funkcję autokorelacji AR (p) można znaleźć, przyjmując oczekiwania i dzieląc ją przez wariancję z t. Mówi nam to, że rk jest liniową kombinacją poprzednich autokorelacji. Możemy użyć tego w zastosowaniu reguły Cramerów do (i) w rozwiązywaniu dla fkk. W szczególności widzimy, że ta liniowa zależność spowoduje f kk 0 dla k gt p. Ta charakterystyczna cecha autoregresyjnych serii będzie bardzo przydatna, jeśli chodzi o identyfikację nieznanej serii. Jeśli masz MathCAD lub MathCAD Explorer, możesz eksperymentować z niektórymi pomysłami AR (p) przedstawionymi tutaj. Modele średniej ruchomej Rozważmy model dynamiczny, w którym seria zainteresowań zależy tylko od części historii terminu białego szumu. W uproszczeniu może to być reprezentowane jako Definicja Załóżmy, że t jest nieskorelowaną sekwencją i. i.d. zmienne losowe o zerowej średniej i skończonej wariancji. Następnie proces średniej ruchomej rzędu q, MA (q), podaje Twierdzenie: Proces średniej ruchomej jest zawsze stacjonarny. Dowód: Zamiast zacząć od ogólnego dowodu, zrobimy to dla konkretnego przypadku. Załóżmy, że z t jest MA (1). Następnie . Oczywiście t ma zerową średnią i skończoną wariancję. Średnia z t jest zawsze równa zero. Autocowary zostaną podane przez Ciebie. Możesz zobaczyć, że średnia zmiennej losowej w żaden sposób nie zależy od czasu. Można również zauważyć, że autokowariancja zależy tylko od przesunięcia s, a nie od miejsca w serii, którą rozpoczynamy. Możemy udowodnić ten sam wynik bardziej ogólnie, zaczynając od, który ma alternatywną reprezentację średniej ruchomej. Zastanówmy się najpierw nad wariancją z t. Przez rekursywne podstawianie można pokazać, że jest to równe sumie, którą znamy jako szereg zbieżny, więc wariancja jest skończona i niezależna od czasu. Na przykład kowariancje Można również zauważyć, że automatyczne kowariancje zależą tylko od względnych punktów w czasie, a nie od momentu chronologicznego. Naszym wnioskiem z tego wszystkiego jest to, że proces MA () jest stacjonarny. Dla ogólnego procesu MA (q) funkcja autokorelacji jest określona przez funkcję częściowej autokorelacji, która wygasa płynnie. Możesz to zobaczyć, odwracając proces, aby uzyskać proces AR (). Jeśli masz MathCAD lub MathCAD Explorer, możesz eksperymentować interaktywnie z niektórymi przedstawionymi tu ideami MA (q). Autoregresja mieszana - średnia ruchoma Definicja Definicja Załóżmy, że t jest nieskorelowaną sekwencją i. i.d. zmienne losowe o zerowej średniej i skończonej wariancji. Następnie autoregresyjny, ruchomy średni proces porządku (p, q), ARMA (p, q), jest podany przez Korzenie autoregresyjnego operatora muszą wszystkie leżeć poza okręgiem koła. Liczba niewiadomych to pq2. P i q są oczywiste. 2 zawiera poziom procesu, m. i wariancja szumu białego, sa 2. Załóżmy, że łączymy nasze reprezentacje AR i MA tak, że model jest i współczynniki są znormalizowane tak, że bo 1. Wtedy ta reprezentacja jest nazywana ARMA (p, q), jeśli korzenie (1) leżą poza kołem jednostki. Załóżmy, że y t są mierzone jako odchylenia od średniej, abyśmy mogli opuścić o. wtedy funkcja autokowariancji jest wyprowadzana z tego, że jeśli jgtq, a następnie warunki MA ulegną przerwaniu w oczekiwaniu na to, że to jest, funkcja autokowariancji wygląda jak typowy AR dla opóźnień po q wymykają się gładko po q, ale nie możemy powiedzieć, jak 1,2,133, q będzie wyglądać. Możemy również zbadać PACF dla tej klasy modelu. Model można zapisać jako: Możemy to napisać jako proces MA (inf), który sugeruje, że PACF giną powoli. Z pewną arytmetyką możemy pokazać, że dzieje się tak tylko po pierwszych pikach wnoszonych przez część AR. Prawo empiryczne W rzeczywistości stacjonarne szeregi czasowe mogą być reprezentowane przez p 2 i q 2. Jeśli twoim celem jest zapewnienie dobrego przybliżenia rzeczywistości, a dobroć dopasowania jest twoim kryterium, preferowany jest model marnotrawny. Jeśli twoim zainteresowaniem jest skuteczność predykcyjna, preferowany jest model oszczędny. Eksperymentuj z przedstawionymi powyżej pomysłami ARiM z arkuszem MathCADa. Autoregressive Integruj ruchome średnie modele Filtr MA Filtr AR Zintegruj filtr Czasami proces lub seria, którą próbujemy modelować, nie jest stacjonarna na poziomach. Ale może być stacjonarne, powiedzmy, w pierwszych różnicach. Oznacza to, że w swojej pierwotnej postaci autokowiary dla serii mogą nie być niezależne od chronologicznego punktu w czasie. Jeśli jednak skonstruujemy nową serię, która jest pierwszą różnicą w oryginalnej serii, ta nowa seria spełnia definicję stacjonarności. Dzieje się tak często w przypadku danych ekonomicznych, które są bardzo popularne. Definicja Załóżmy, że z t nie jest nieruchomy, ale z t - z t-1 spełnia definicję stacjonarności. Również przy, termin szumu białego ma skończoną średnią i wariancję. Możemy napisać model jako "Ten nazywa się modelem ARIMA (p, d, q). p identyfikuje kolejność operatora AR, d identyfikuje moc. q określa kolejność operatora IZ. Jeśli korzenie f (B) leżą poza okręgiem koła, możemy przepisać ARIMA (p, d, q) jako filtr liniowy. To znaczy. może być zapisany jako MA (). Zastrzegamy sobie dyskusję na temat wykrywania korzeni jednostki dla innej części notatek z wykładu. Rozważmy system dynamiczny z x t jako serią wejściową i y t jako serią wyjściową. W sposób schematyczny Te modele są dyskretną analogią liniowych równań różniczkowych. Przyjmujemy następującą relację, w której b wskazuje na czyste opóźnienie. Przypomnij sobie (1-B). Dokonując tego podstawienia można zapisać model Jeśli współczynnik wielomianu na y t można odwrócić, wówczas model można zapisać jako V (B) znany jako funkcja odpowiedzi impulsowej. Natkniemy się na tę terminologię ponownie w naszej późniejszej dyskusji na temat autoregresji wektorowej. modele kointegracji i korekcji błędów. IDENTYFIKACJA MODELU Po wybraniu klasy modeli należy teraz określić kolejność procesów generujących dane. Oznacza to, że najlepiej jest odgadnąć kolejność procesów AR i MA napędzających stacjonarne serie. Seria stacjonarna jest całkowicie scharakteryzowana przez średnią i autokowariancje. Ze względów analitycznych zwykle pracujemy z autokorelacjami i częściowymi autokorelacjami. Te dwa podstawowe narzędzia mają unikalne wzorce dla stacjonarnych procesów AR i MA. Można obliczyć przykładowe oszacowania funkcji autokorelacji i częściowej autokorelacji i porównać je z wynikami w tabelach dla modeli standardowych. Funkcja autokorelacji próbki Funkcja autokorelacji Przykładowe częściowe autokorelacje będą Używać autokorelacji, a częściowe autokorelacje są zasadniczo proste. Załóżmy, że mamy serię z t. ze średnią zerową, czyli AR (1). Gdybyśmy mieli uruchomić regresję z t2 na z t1 i z t, spodziewalibyśmy się, że współczynnik na z t nie różni się od zera, ponieważ ta częściowa autokorelacja powinna wynosić zero. Z drugiej strony, autokorelacje dla tej serii powinny maleć wykładniczo dla wzrastających opóźnień (patrz przykład AR (1) powyżej). Załóżmy, że seria jest naprawdę średnią ruchomą. Autokorelacja powinna wynosić zero wszędzie, ale przy pierwszym opóźnieniu. Częściowa autokorelacja powinna wygasnąć wykładniczo. Nawet od bardzo pobieżnego omówienia podstaw analizy szeregów czasowych jest oczywiste, że istnieje dwoistość między procesami AR i MA. Ta dwoistość może zostać podsumowana w poniższej tabeli. Autoregresywne średnie ruchome ARMA (p, q) Modele analizy szeregów czasowych - Część 1 W ostatnim artykule przyjrzeliśmy się przypadkowym spacerom i szumowi białemu jako podstawowym modelom szeregu czasowego dla niektórych instrumentów finansowych, takich jak jako dzienne ceny akcji i indeksów giełdowych. Okazało się, że w niektórych przypadkach model chodzenia swobodnego był niewystarczający, aby uchwycić pełne zachowanie autokorelacji instrumentu, co motywuje bardziej wyrafinowane modele. W następnych kilku artykułach omówimy trzy typy modeli, a mianowicie model Autoregresyjny (AR) rzędu p, model średniej ruchomej (MA) rzędu q oraz model mieszanej autogresywnej średniej ruchomej (ARMA) rzędu p , q. Modele te pomogą nam podjąć próbę uchwycenia lub wyjaśnienia większej liczby korelacji seryjnych obecnych w instrumencie. Ostatecznie zapewnią nam możliwość prognozowania przyszłych cen. Jednakże dobrze wiadomo, że serie finansowe mają właściwość określaną jako klastrowanie zmienności. Oznacza to, że zmienność instrumentu nie jest stała w czasie. Techniczne pojęcie tego zachowania określa się mianem warunkowej heteroskedastyczności. Ponieważ modele AR, MA i ARMA nie są warunkowo heteroskedastyczne, to znaczy, że nie biorą pod uwagę klastra zmienności, ostatecznie potrzebujemy bardziej wyrafinowanego modelu dla naszych przewidywań. Takie modele obejmują model Autogressive Conditional Heteroskedastic (ARCH) i model uogólnionego autogresywnego warunkowego Heteroskedastic (GARCH) oraz wiele jego wariantów. GARCH jest szczególnie dobrze znany w finansowaniu kwantowym i jest wykorzystywany przede wszystkim do finansowych symulacji szeregów czasowych jako sposobu szacowania ryzyka. Jednakże, tak jak w przypadku wszystkich artykułów QuantStart, chcę budować do tych modeli z prostszych wersji, abyśmy mogli zobaczyć, jak każdy nowy wariant zmienia naszą zdolność przewidywania. Pomimo tego, że AR, MA i ARMA są stosunkowo prostymi modelami szeregów czasowych, są one podstawą bardziej skomplikowanych modeli, takich jak Autoregressive Integrated Moving Average (ARIMA) i rodzina GARCH. Dlatego ważne jest, abyśmy je przestudiowali. Jedną z naszych pierwszych strategii handlowych w serii artykułów z serii czasowej będzie połączenie ARIMA i GARCH w celu przewidywania cen z okresów wcześniejszych. Będziemy musieli jednak poczekać, aż omówimy ARIMA i GARCH oddzielnie, zanim zastosujemy je do prawdziwej strategii. Jak będziemy postępować W tym artykule przedstawimy kilka nowych koncepcji szeregów czasowych, które bardzo potrzebują pozostałych metod, a mianowicie ścisłej stacjonarność i kryterium informacyjne Akaike (AIC). Po tych nowych koncepcjach będziemy postępować zgodnie z tradycyjnym schematem badania nowych modeli szeregów czasowych: Uzasadnienie - Pierwszym zadaniem jest podanie przyczyny, dla której zainteresowani byli konkretnym modelem, jako kwanty. Dlaczego wprowadzamy model szeregów czasowych Jakie efekty może on uchwycić Co zyskujemy (lub tracimy) poprzez dodanie dodatkowej złożoności Definicja - Musimy podać pełną definicję matematyczną (i powiązaną notację) modelu szeregów czasowych w celu zminimalizowania wszelkie niejasności. Właściwości drugiego rzędu - Omówimy (a w niektórych przypadkach wyprowadzimy) właściwości drugiego rzędu modelu szeregu czasowego, który obejmuje jego średnią, wariancję i funkcję autokorelacji. Korelogram - Wykorzystamy właściwości drugiego rzędu do wykreślenia korelogramu realizacji modelu szeregów czasowych w celu wizualizacji jego zachowania. Symulacja - Symulujemy realizacje modelu szeregów czasowych, a następnie dopasowujemy model do tych symulacji, aby upewnić się, że mamy odpowiednie implementacje i zrozumieć proces dopasowania. Prawdziwe dane finansowe - dopasujemy model szeregów czasowych do rzeczywistych danych finansowych i uwzględnimy korelogram pozostałych danych, aby zobaczyć, jak model odpowiada za szeregową korelację w pierwotnej serii. Prognozy - Stworzymy n-progowe prognozy modelu szeregów czasowych dla poszczególnych realizacji, aby ostatecznie wygenerować sygnały transakcyjne. Prawie wszystkie artykuły, które piszę w modelach z szeregami czasowymi, wpadną w ten wzór i pozwolą nam łatwo porównać różnice między poszczególnymi modelami, ponieważ dodamy jeszcze większą złożoność. Zaczęliśmy od spojrzenia na ścisłą stacjonarność i AIC. Ściśle stacjonarne Podaliśmy definicję stacjonarności w artykule na temat korelacji szeregowej. Ponieważ jednak wejdziemy w sferę wielu finansowych serii, z różnymi częstotliwościami, musimy upewnić się, że nasze (ewentualne) modele uwzględniają zmienność czasową tych serii. W szczególności musimy wziąć pod uwagę ich heteroskedastyczność. Natrafimy na tę kwestię, próbując dopasować określone modele do serii historycznych. Zasadniczo, nie wszystkie korelacje seryjne w resztach dopasowanych modeli mogą być uwzględnione bez uwzględnienia heteroskedastyczności. To przywraca nas do stacjonarności. Seria nie jest stacjonarna w wariancji, jeśli z definicji ma wahania zmienne w czasie. To motywuje bardziej rygorystyczną definicję stacjonarności, a mianowicie ścisłą stacjonarność: Ściśle stacjonarny typoszereg szeregów czasowych A, jest ściśle stacjonarny, jeśli wspólny rozkład statystyczny elementów x, ldots, x jest taki sam jak w przypadku xm, ldots, xm, forall ti, m. Można sobie wyobrazić tę definicję po prostu, że rozkład szeregów czasowych pozostaje niezmieniony dla jakiejkolwiek abritralnej zmiany czasu. W szczególności, średnia i wariancja są stałe w czasie dla ściśle stacjonarnych szeregów, a autokowariancja między xt i xs (powiedzmy) zależy tylko od bezwzględnej różnicy t i s, t-s. Będziemy wracać do ściśle stacjonarnych serii w kolejnych postach. Akaike Information Criterion Wspomniałem we wcześniejszych artykułach, że w końcu będziemy musieli zastanowić się, w jaki sposób wybrać między oddzielnymi najlepszymi modelami. Dotyczy to nie tylko analizy szeregów czasowych, ale także uczenia maszynowego i, szerzej, statystyk w ogóle. Dwie główne metody, którymi będziemy się posługiwać (na razie) to Akaike Information Criterion (AIC) i Bayesian Information Criterion (w miarę postępów z naszymi artykułami na temat statystyki Bayesian). Proszę krótko rozważyć AIC, ponieważ będzie on używany w części 2 artykułu ARiMR. AIC jest zasadniczo narzędziem pomagającym w doborze modelu. Oznacza to, że jeśli mamy wybór modeli statystycznych (w tym szeregów czasowych), to AIC szacuje jakość każdego modelu w stosunku do innych, które mamy dostępne. Opiera się na teorii informacji. który jest bardzo interesującym, głębokim tematem, na który niestety nie możemy przejść zbyt szczegółowo. Próbuje zrównoważyć złożoność modelu, co w tym przypadku oznacza liczbę parametrów, z tym, jak dobrze pasuje do danych. Zapewnijmy definicję: Akaike Informacja Kryterium Jeśli przyjmiemy funkcję prawdopodobieństwa dla modelu statystycznego, który ma k parametrów, a L maksymalizuje prawdopodobieństwo. następnie Akaike Information Criterion jest podany przez: Preferowany model, z wyboru modeli, ma min. AIC grupy. Widać, że AIC rośnie wraz ze wzrostem liczby parametrów, k, ale zmniejsza się, gdy zwiększa się prawdopodobieństwo ujemnego logarytmu. Zasadniczo penalizuje modele, które są przestarzałe. Będziemy tworzyć modele AR, MA i ARMA o różnych zamówieniach, a jednym ze sposobów wyboru najlepszego modelu pasującego do konkretnego zbioru danych będzie użycie AIC. Tak właśnie powinno się robić w następnym artykule, głównie w przypadku modeli ARMA. Modele autoregresyjne (AR) porządku p. Pierwszym modelem, który będzie stanowił podstawę Części 1, jest autoregresyjny model rzędu p, często skrócony do AR (p). W poprzednim artykule rozważaliśmy losowy spacer. gdzie każdy termin, xt zależy tylko od poprzedniego terminu, x i stochastycznego terminu białego szumu, wt: Model autoregresyjny jest po prostu rozszerzeniem losowej wędrówki, która obejmuje terminy z powrotem w czasie. Struktura modelu jest liniowa. to jest model zależny liniowo od poprzednich warunków, ze współczynnikami dla każdego terminu. W tym miejscu regresywny pochodzi z autoregresji. Zasadniczo jest to model regresji, w którym poprzednie warunki są predykatorami. Autoregresyjny model porządku p Model szeregu czasowego, jest autoregresyjnym modelem porządku p. AR (p), jeśli: początek xt alpha1 x ldots alphap x wt suma p alphai x wt koniec Gdzie jest biały szum i alphai w mathbb, z alphap neq 0 dla procesu autoregresyjnego rzędu p. Jeśli weźmiemy pod uwagę operację przesunięcia wstecznego. (patrz poprzedni artykuł), możemy przepisać powyższe funkcje w funkcji theta: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt end Być może pierwszą rzeczą, którą należy zwrócić uwagę na model AR (p) jest to, że losowy spacer to po prostu AR (1) z alfa1 równym jedności. Jak stwierdziliśmy powyżej, model autogresywny jest rozszerzeniem losowej wędrówki, więc ma to sens Proste jest dokonywanie przewidywań za pomocą modelu AR (p), dla dowolnego czasu t, ponieważ gdy już ustalimy współczynniki alfa, nasze oszacowanie po prostu staje się: begin hat t alpha1 x ldots alphap x end Dzięki temu możemy przygotować prognozy n-krokowe, produkując kapelusz, kapelusz, kapelusz itp. aż do kapelusza. W rzeczywistości, gdy weźmiemy pod uwagę modele ARMA w części 2, użyjemy funkcji przewidywania R do tworzenia prognoz (wraz ze standardowymi pasmami przedziału ufności), które pomogą nam w wytwarzaniu sygnałów handlowych. Stacjonarność dla procesów autoregresyjnych Jednym z najważniejszych aspektów modelu AR (p) jest to, że nie zawsze jest stacjonarny. Rzeczywiście stacjonarność określonego modelu zależy od parametrów. Ive wspomniał o tym wcześniej w poprzednim artykule. Aby ustalić, czy proces AR (p) jest stacjonarny, czy nie, musimy rozwiązać równanie charakterystyczne. Równanie charakterystyczne jest po prostu modelem autoregresyjnym, zapisanym w formie przesunięcia wstecznego, ustawionym na zero: Rozwiązujemy to równanie na. Aby dany proces autoregresyjny był stacjonarny, wszystkie bezwzględne wartości korzeni tego równania muszą przekraczać jedność. Jest to niezwykle użyteczna właściwość i pozwala nam szybko obliczyć, czy proces AR (p) jest stacjonarny czy nie. Rozważmy kilka przykładów, aby ten pomysł był konkretny: Random Walk - Proces AR (1) z alpha1 1 ma charakterystyczne równanie theta 1 -. Najwyraźniej ma to pierwiastek 1 i jako taki nie jest stacjonarny. AR (1) - Jeśli wybierzemy frakcję alpha1 otrzymamy xt frac x wt. To daje nam charakterystyczne równanie 1 - frac 0, które ma korzeń 4 gt 1, a więc ten konkretny proces AR (1) jest stacjonarny. AR (2) - Jeśli ustawimy alpha1 alpha2 frac, otrzymamy xt frac x frac x wt. Jego charakterystyczne równanie staje się - frac () () 0, co daje dwa pierwiastki o wartości 1, -2. Ponieważ ma on jednostkę główną, jest to seria niestacjonarna. Jednak inne serie AR (2) mogą być stacjonarne. Właściwości drugiego rzędu Średnia procesu AR (p) wynosi zero. Jednak autokowiary i autokorelacje są podawane przez funkcje rekurencyjne, znane jako równania Yule-Walker. Pełne właściwości są podane poniżej: początek mux E (xt) 0 koniec początek suma gammak p alphai gamma, enspace k koniec 0 początek rhok suma p alphai rho, enspace k koniec 0 Zauważ, że konieczne jest poznanie wartości parametrów alphai przed obliczanie autokorelacji. Teraz, kiedy określiliśmy właściwości drugiego rzędu, możemy symulować różne sekwencje AR (p) i narysować odpowiednie korelogramy. Symulacje i korelogramy Zacznijmy od procesu AR (1). Jest to podobne do przypadkowego spaceru, z tym wyjątkiem, że alfa1 nie musi być równą jednością. Nasz model będzie miał alfa1 0.6. Kod R dla tworzenia tej symulacji jest następujący: Zwróć uwagę, że nasza pętla for przeprowadzana jest od 2 do 100, a nie od 1 do 100, jako xt-1, gdy t0 nie jest indeksowalna. Podobnie w przypadku procesów AR (p) wyższego rzędu, t musi mieścić się w zakresie od p do 100 w tej pętli. Możemy zaprojektować realizację tego modelu i związanego z nim korelogramu przy użyciu funkcji układu: teraz spróbuj dopasować proces AR (p) do symulowanych danych, które właśnie wygenerowaliśmy, aby sprawdzić, czy możemy odzyskać podstawowe parametry. Możesz pamiętać, że podobną procedurę przeprowadziliśmy w artykule na temat białego szumu i przypadkowych spacerów. Jak się okazuje, R dostarcza użyteczne polecenia ar pasujące do modeli autoregresyjnych. Możemy użyć tej metody, aby najpierw powiedzieć nam najlepszą kolejność p modelu (określoną przez AIC powyżej) i dostarczyć nam oszacowania parametrów dla alphai, które następnie możemy wykorzystać do utworzenia przedziałów ufności. Dla kompletności, możemy odtworzyć serię x: Teraz używamy polecenia ar, aby dopasować model autoregresyjny do naszego symulowanego procesu AR (1), wykorzystując jako procedurę dopasowania maksymalne prawdopodobieństwo wiarygodności (MLE). Najpierw wyodrębnimy najlepsze otrzymane zamówienie: Polecenie ar z powodzeniem określiło, że nasz bazowy model szeregu czasowego jest procesem AR (1). Możemy następnie uzyskać estymaty parametrów alfa (alphai): Procedura MLE dała oszacowanie, kapelusz 0,523, który jest nieco niższy niż prawdziwa wartość alpha1 0.6. Na koniec możemy użyć błędu standardowego (z asymptotyczną wariancją), aby zbudować 95 przedziałów ufności wokół bazowego parametru (parametrów). Aby to osiągnąć, po prostu tworzymy wektor c (-1.96, 1.96), a następnie mnożymy go przez błąd standardowy: Prawdziwy parametr nie mieści się w przedziale ufności 95, ponieważ wed oczekiwać od tego, że wygenerowaliśmy realizację z modelu specjalnie . Co jeśli zmienimy alpha1 -0.6. Jak wcześniej możemy dopasować model AR (p) za pomocą ar: Po raz kolejny odzyskujemy poprawną kolejność modelu, z bardzo dobrą wartością szacunkową -0,597 z alfa1-0.6. Widzimy również, że prawdziwy parametr po raz kolejny mieści się w przedziale ufności 95. Dodajmy nieco więcej złożoności do naszych autoregresyjnych procesów, symulując model zamówienia 2. W szczególności ustawimy alpha10.666, ale również ustawimy alpha2 -0.333. Oto pełny kod symulujący i planujący realizację, a także korelogram dla takiej serii: Jak już wcześniej zauważyliśmy, korelogram różni się znacznie od szumu białego, jak się spodziewa. Istnieją statystycznie istotne piki przy k1, k3 i k4. Po raz kolejny zamierzaliśmy użyć polecenia ar, aby dopasować model AR (p) do naszej podstawowej realizacji AR (2). Procedura jest podobna jak w przypadku dopasowania AR (1): Prawidłowe zamówienie zostało odzyskane, a szacunkowe wartości hat 0,696 i hat -0,395 nie są zbyt dalekie od prawdziwych wartości parametrów alfa 10,666 i alpha2-0,333. Zauważ, że otrzymujemy komunikat ostrzegawczy o zbieżności. Zwróć też uwagę, że R faktycznie używa funkcji arima0 do obliczenia modelu AR. Jak również dowiedzieć się w kolejnych artykułach, modele AR (p) są po prostu modelami ARIMA (p, 0, 0), a zatem model AR jest szczególnym przypadkiem ARIMA bez komponentu średniej ruchomej (MA). Używaj również polecenia arima do tworzenia przedziałów ufności wokół wielu parametrów, dlatego też zaniedbaliśmy zrobienie tego tutaj. Teraz, gdy stworzyliśmy kilka symulowanych danych, nadszedł czas, aby zastosować modele AR (p) do szeregów czasowych aktywów finansowych. Dane finansowe Amazon Inc. Zacznijmy od uzyskania ceny akcji Amazon (AMZN) za pomocą quantmod, jak w ostatnim artykule: Pierwszym zadaniem jest zawsze wyliczyć cenę za krótką kontrolę wizualną. W tym przypadku dobrze wykorzystując dzienne ceny zamknięcia: zauważysz, że quantmod dodaje dla nas trochę formatowania, mianowicie datę i nieco ładniejszy wykres niż zwykłe wykresy R: teraz zamierzamy przyjąć logarytmiczne zwroty AMZN, a następnie pierwsze - różnicy między seriami w celu przekształcenia pierwotnej serii cenowej z serii niestacjonarnej na serię (potencjalnie) stacjonarną. To pozwala nam porównywać jabłka z jabłkami pomiędzy akcjami, indeksami lub jakimikolwiek innymi aktywami, do wykorzystania w późniejszych wielowymiarowych statystykach, na przykład przy obliczaniu macierzy kowariancji. Jeśli chcesz uzyskać szczegółowe wyjaśnienie, dlaczego log powroty są lepsze, przeczytaj ten artykuł w Quantity. Pozwala stworzyć nową serię, amznrt. aby utrzymać nasz log różnicowy zwraca: Po raz kolejny możemy wyrysować serię: Na tym etapie chcemy wykreślić korelogram. Szukaliśmy, czy zróżnicowana seria wygląda jak biały szum. Jeśli tak nie jest, istnieje niewyjaśniona szeregowa korelacja, którą można wyjaśnić modelem autoregresyjnym. Zauważamy statystycznie istotny pik przy k2. Stąd istnieje uzasadniona możliwość niewyjaśnionej korelacji szeregowej. Należy jednak pamiętać, że może to wynikać z próbkowania. W związku z tym możemy spróbować dopasować model AR (p) do serii i wytworzyć przedziały ufności dla parametrów: Dopasowanie ar autoregresyjnego modelu do różnej serii cen kłód pierwszego rzędu daje model AR (2), z kapeluszem -0.0278 i kapelusz -0,0687. Ive również wyjściowy wariancji aysmptotic tak, że możemy obliczyć standardowe błędy dla parametrów i produkować przedziały ufności. Chcemy sprawdzić, czy zero jest częścią 95 przedziału ufności, tak jakby było, zmniejsza naszą pewność, że mamy prawdziwy proces leżący u podstaw AR (2) dla serii AMZN. Aby obliczyć przedziały ufności na poziomie 95 dla każdego parametru, używamy następujących poleceń. Przyjmujemy pierwiastek kwadratowy z pierwszego elementu asymptotycznej macierzy wariancji, aby wygenerować standardowy błąd, a następnie utworzyć przedziały ufności przez pomnożenie jej przez odpowiednio -1.96 i 1.96 dla poziomu 95: Należy zauważyć, że staje się to bardziej proste przy użyciu funkcji arima , ale dobrze poczekaj, aż część 2 przed wprowadzeniem go prawidłowo. Tak więc widzimy, że dla alfa 1 zero jest zawarte w przedziale ufności, podczas gdy dla alfa2 zero nie jest zawarte w przedziale ufności. Dlatego powinniśmy być bardzo ostrożni, myśląc, że naprawdę mamy bazowy model generatywny AR (2) dla AMZN. W szczególności zauważamy, że model autoregresyjny nie uwzględnia klastrów zmienności, co prowadzi do grupowania korelacji szeregowej w finansowych szeregach czasowych. Kiedy weźmiemy pod uwagę modele ARCH i GARCH w późniejszych artykułach, uwzględnimy to. Kiedy przyjdziemy do użycia pełnej funkcji arima w następnym artykule, zrobimy prognozy dziennej serii cen dziennika, aby umożliwić nam tworzenie sygnałów handlowych. SampP500 US Equity Index Wraz z poszczególnymi zapasami możemy również wziąć pod uwagę indeks amerykańskich akcji, SampP500. Zastosuj wszystkie poprzednie polecenia do tej serii i wygeneruj wykresy jak poprzednio: Możemy wykreślić ceny: Tak jak poprzednio, dobrze stwórz różnicę pierwszego rzędu w cenach zamknięcia dziennika: Po raz kolejny możemy wykreślić serię: Jest jasne z tego wykresu wynika, że ​​zmienność nie jest stacjonarna w czasie. Znajduje to również odzwierciedlenie w wykresie korelogramu. Istnieje wiele szczytów, w tym k1 i k2, które są statystycznie znaczące poza modelem białego szumu. Ponadto widzimy dowody procesów długotrwałej pamięci, ponieważ istnieją pewne statystycznie istotne wartości szczytowe w k16, k18 i k21: Ostatecznie potrzebujemy bardziej wyrafinowanego modelu niż autoregresyjny model rzędu p. Jednak na tym etapie możemy nadal próbować dopasować taki model. Zobaczmy, co otrzymamy, jeśli to zrobimy: Użycie ar tworzy model AR (22), tj. Model z 22 niezerowymi parametrami. Co to nam mówi? Wskazuje na to, że istnieje prawdopodobnie o wiele większa złożoność w korelacji szeregowej niż prosty liniowy model cen w przeszłości może naprawdę wyjaśniać. Jednak już to wiedzieliśmy, ponieważ widzimy, że istnieje znacząca korelacja szeregowa w zmienności. Weźmy na przykład bardzo zmienny okres około 2008 roku. To motywuje następny zestaw modeli, a mianowicie Moving Average MA (q) i Autoregressive Moving Average ARMA (p, q). Dowiesz się o obu z nich w części 2 tego artykułu. Jak wielokrotnie wspominaliśmy, ostatecznie doprowadzą nas do rodziny modeli ARIMA i GARCH, które zapewnią znacznie lepsze dopasowanie do seryjnej złożoności korelacji Samp500. Pozwoli nam to znacząco poprawić nasze prognozy, a ostatecznie wygenerować bardziej dochodowe strategie. Właśnie zaczyna się handel ilościowy

1 comment: