ARMA
Vuonna tilastoissa , ARMA mallit ( autoregressive malleja ja liukuva keskiarvo ), vai myös laatikko- Jenkins malli , ovat keskeisiä malleja aikasarjoja .
Kun otetaan huomioon aikasarja X t , ARMA-malli on työkalu tämän sarjan tulevien arvojen ymmärtämiseen ja mahdollisesti ennustamiseen. Malli koostuu kahdesta osasta: autoregressiivisestä osasta (AR) ja liikkuvan keskiarvon osasta (MA). Mallia kutsutaan yleensä ARMA: ksi ( p , q ), jossa p on AR-osan järjestys ja q MA-osan järjestys.
Määritelmä - autoregressiivinen ja liukuva keskiarvo malli tilauksia ( p , q ) (lyhennettynä ARMA ( p , q ) ) on diskreetti ajallinen prosessi ( X t , t ∈ ℕ) täyttävät:
Xt=et+∑i=1sφiXt-i+∑i=1qθiet-i{\ displaystyle X_ {t} = \ varepsilon _ {t} + \ sum _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ sum _ {i = 1} ^ {q} \ theta _ {i} \ varepsilon _ {ti}}
missä φ i ja θ i ovat malliparametreja ja ε i ovat virhetermit.
Autoregressiivinen AR ( p ) on ARMA ( p , 0)
Liukuva keskiarvo malli MA ( q ) on ARMA (0, q )
Autoregressiivinen malli
Järjestyksen p autoregressiivinen malli , lyhennettynä AR ( p ), kirjoitetaan:
Xt=vs.+∑i=1sφiXt-i+et{\ displaystyle X_ {t} = c + \ summa _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ varepsilon _ {t} \,}
jossa ovat parametreja mallin, on vakio ja valkoista kohinaa . Vakio jätetään usein kirjallisuudesta pois, prosessin sanotaan sitten keskittyneen.
φ1,...,φs{\ displaystyle \ varphi _ {1}, \ ldots, \ varphi _ {p}}
vs.{\ displaystyle c}
et{\ displaystyle \ varepsilon _ {t}}![\ varepsilon _ {t}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7c1ff8b8945e6a4fccf6071f806b9ef232492b9a)
Parametrien lisärajoitukset ovat välttämättömiä paikallaanolon takaamiseksi . Esimerkiksi AR (1) -mallissa prosessit, kuten | φ 1 | ≥ 1 eivät ole paikallaan.
Esimerkki: AR-prosessi (1)
AR (1) -mallin antaa:
Xt=vs.+φXt-1+et{\ displaystyle X_ {t} = c + \ varphi X_ {t-1} + \ varepsilon _ {t} \,}
missä on valkoinen melu, nolla keskiarvo ja varianssi .
et{\ displaystyle \ varepsilon _ {t}}
σ2{\ displaystyle \ sigma ^ {2}}![\ sigma ^ {2}](https://wikimedia.org/api/rest_v1/media/math/render/svg/53a5c55e536acf250c1d3e0f754be5692b843ef5)
E[Xt]=vs.1-φ{\ displaystyle \ mathrm {E} \ vasen [X_ {t} \ oikea] = {\ frac {c} {1- \ varphi}}}
Vklor[Xt]=σ21-φ2{\ displaystyle \ mathrm {Var} \ left [X_ {t} \ right] = {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}}}}
Bei=VSov[Xt,Xt-ei]=σ21-φ2φ|ei|{\ displaystyle B_ {n} = \ mathrm {Cov} \ vasen [X_ {t}, X_ {tn} \ oikea] = {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}} } \ varphi ^ {| n |}}
Ottaa tarkoittaa, että keskiarvo on nolla. Esittelemme autokovarianttitoiminnon hajoamisnopeuden
vs.=0{\ displaystyle c = 0}
τ=-1/ln(φ){\ displaystyle \ tau = -1 / \ ln (\ varphi)}
Voiman spektritiheyden on Fourier-muunnos on autokovarianssifunktio. Erillisessä tapauksessa se on kirjoitettu:
Φ(ω)=12π∑ei=-∞∞Beie-iωei=12π(σ21+φ2-2φcos(ω)).{\ displaystyle \ Phi (\ omega) = {\ frac {1} {\ sqrt {2 \ pi}}} \, \ summa _ {n = - \ infty} ^ {\ infty} B_ {n} e ^ { -i \ omega n} = {\ frac {1} {\ sqrt {2 \ pi}}} \, \ vasen ({\ frac {\ sigma ^ {2}} {1+ \ varphi ^ {2} -2 \ varphi \ cos (\ omega)}} \ oikea).}![\ Phi (\ omega) = {\ frac {1} {\ sqrt {2 \ pi}}} \, \ summa _ {n = - \ infty} ^ {\ infty} B_ {n} e ^ {- i \ omega n} = {\ frac {1} {\ sqrt {2 \ pi}}} \, \ vasen ({\ frac {\ sigma ^ {2}} {1+ \ varphi ^ {2} -2 \ varphi \ cos (\ omega)}} \ oikea).](https://wikimedia.org/api/rest_v1/media/math/render/svg/76a864fa4873a12c2502f601a4cea5156c13d7b2)
Tämä kehitys on jaksoittaista johtuen kosinitermin läsnäolosta nimittäjässä. Olettaen, että näytteenottoaika ( ) on pienempi kuin hajoamisnopeus ( ), voimme käyttää jatkuvaa likiarvoa seuraavista :
Δt=1{\ displaystyle \ Delta t = 1}
τ{\ displaystyle \ tau}
Bei{\ displaystyle B_ {n}}![B_ {n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f568bf6d34e97b9fdda0dc7e276d6c4501d2045)
B(t)≈σ21-φ2φ|t|{\ displaystyle B (t) \ approx {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}}} \, \, \ varphi ^ {| t |}}}![B (t) \ noin {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}}} \, \, \ varphi ^ {| t |}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2fb872ba8af8c4dd8756cfc02b31c337e83494f8)
joka esittää Lorentzin muodon spektritiheydelle:
Φ(ω)=12πσ21-φ2yπ(y2+ω2){\ displaystyle \ Phi (\ omega) = {\ frac {1} {\ sqrt {2 \ pi}}} \, {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}}} \, {\ frac {\ gamma} {\ pi (\ gamma ^ {2} + \ omega ^ {2})}}}![\ Phi (\ omega) = {\ frac {1} {\ sqrt {2 \ pi}}} \, {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}}} \, { \ frac {\ gamma} {\ pi (\ gamma ^ {2} + \ omega ^ {2})}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/11848e4028d178177ce166fa34676301a0331144)
mihin liittyy kulmataajuus .
y=1/τ{\ displaystyle \ gamma = 1 / \ tau}
τ{\ displaystyle \ tau}![\ tau](https://wikimedia.org/api/rest_v1/media/math/render/svg/38a7dcde9730ef0853809fefc18d88771f95206c)
Vaihtoehtoisessa lauseke voidaan saada korvaamalla kanssa toimien määrittelyssä yhtälö. Jatkamalla tätä käsittelyä N kertaa antaa
Xt{\ displaystyle X_ {t}}
Xt-1{\ displaystyle X_ {t-1}}
vs.+φXt-2+et-1{\ displaystyle c + \ varphi X_ {t-2} + \ varepsilon _ {t-1}}![c + \ varphi X_ {t-2} + \ varepsilon _ {t-1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7787d0d39eb7a51cbebaf48cb00e775bd56bf28a)
Xt=vs.∑k=0EI-1φk+φEIXt-EI+∑k=0EI-1φket-k.{\ displaystyle X_ {t} = c \ sum _ {k = 0} ^ {N-1} \ varphi ^ {k} + \ varphi ^ {N} X_ {tN} + \ summa _ {k = 0} ^ {N-1} \ varphi ^ {k} \ varepsilon _ {tk}.}![X_ {t} = c \ summa _ {k = 0} ^ {N-1} \ varphi ^ {k} + \ varphi ^ {N} X_ {tN} + \ summa _ {k = 0} ^ {N- 1} \ varphi ^ {k} \ varepsilon _ {tk}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/eb2bc722c92ed8456fb6afbc49249c5235904475)
Jos N: stä tulee hyvin suuri, lähestyy 0 ja:
φEI{\ displaystyle \ varphi ^ {N}}![\ varphi ^ {N}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a3c7d06db11de79871f23fce1a87a85a61e19f12)
Xt=vs.1-φ+∑k=0∞φket-k.{\ displaystyle X_ {t} = {\ frac {c} {1- \ varphi}} + \ summa _ {k = 0} ^ {\ infty} \ varphi ^ {k} \ varepsilon _ {tk}.}![X_ {t} = {\ frac {c} {1- \ varphi}} + \ summa _ {k = 0} ^ {\ infty} \ varphi ^ {k} \ varepsilon _ {tk}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/71dc254dbf8d8b18ea6b62249f047a0982a9d4c0)
Voimme nähdä, että ytimen kanssa sekoitettu valkoinen melu plus vakio keskiarvo. Jos valkoinen melu on Gaussin , se on myös normaali prosessi. Muussa tapauksessa Central Limit Theorem sanoo, että se on suunnilleen normaalia, kun se on lähellä yhtenäisyyttä.
Xt{\ displaystyle X_ {t}}
φk{\ displaystyle \ varphi ^ {k}}
Xt{\ displaystyle X_ {t}}
Xt{\ displaystyle X_ {t}}
φ{\ displaystyle \ varphi}![\ varphi](https://wikimedia.org/api/rest_v1/media/math/render/svg/33ee699558d09cf9d653f6351f9fda0b2f4aaa3e)
AR-parametrien arviointi
Mallin AR ( p ) antaa
Xt=∑i=1sφiXt-i+et.{\ displaystyle X_ {t} = \ summa _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ varepsilon _ {t}. \,}![X_ {t} = \ summa _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ varepsilon _ {t}. \,](https://wikimedia.org/api/rest_v1/media/math/render/svg/b1a017e273d484ea82c3c0effe3153b1e991a0ef)
Arvioitavat parametrit ovat missä i = 1,…, p . Näiden parametrien ja kovarianssin (ja siten autokorrelaation) funktion välillä on suora vastaavuus, ja parametrit voidaan johtaa kääntämällä nämä suhteet. Nämä ovat Yule -Walker- yhtälöt :
φi{\ displaystyle \ varphi _ {i}}![\ varphi _ {i}](https://wikimedia.org/api/rest_v1/media/math/render/svg/70503774fb21be77396899900d3aa1e47d8f9e10)
ym=∑k=1sφkym-k+σe25m{\ displaystyle \ gamma _ {m} = \ summa _ {k = 1} ^ {p} \ varphi _ {k} \ gamma _ {mk} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ { m}}![\ gamma _ {m} = \ summa _ {k = 1} ^ {p} \ varphi _ {k} \ gamma _ {mk} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ {m}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a0711bfaf60c28d3b0f98349157d0a8452bce0fc)
missä m = 0,…, p , joka antaa kaikissa p + 1 yhtälöt. Kertoimet on autokorrelaatiofunktio X , on poikkeama (keskihajonta) valkoisen kohinan, ja δ m on Kronecker symboli .
ym{\ displaystyle \ gamma _ {m}}
σe{\ displaystyle \ sigma _ {\ varepsilon}}![\ sigma _ {\ varepsilon}](https://wikimedia.org/api/rest_v1/media/math/render/svg/04852f481494a445c9f5b9082df1ead002c098a2)
Yhtälön viimeinen osa ei ole nolla, jos m = 0; Kun m > 0, edellinen yhtälö kirjoitetaan matriisijärjestelmänä
[y1y2y3⋮]=[y0y-1y-2...y1y0y-1...y2y1y0...⋮⋮⋮⋱][φ1φ2φ3⋮]{\ displaystyle {\ begin {bmatrix} \ gamma _ {1} \\\ gamma _ {2} \\\ gamma _ {3} \\\ vdots \\\ end {bmatrix}} = {\ begin {bmatrix} \ gamma _ {0} & \ gamma _ {- 1} & \ gamma _ {- 2} ja \ pisteet \\\ gamma _ {1} & \ gamma _ {0} & \ gamma _ {- 1} & \ pisteet \\\ gamma _ {2} & \ gamma _ {1} & \ gamma _ {0} & \ pisteet \\\ vdots & \ vdots & \ vdots & \ ddots \\\ end {bmatrix}} {\ alku {bmatrix} \ varphi _ {1} \\\ varphi _ {2} \\\ varphi _ {3} \\\ vdots \\\ end {bmatrix}}}![{\ begin {bmatrix} \ gamma _ {1} \\\ gamma _ {2} \\\ gamma _ {3} \\\ vdots \\\ end {bmatrix}} = {\ begin {bmatrix} \ gamma _ {0} & \ gamma _ {- 1} & \ gamma _ {- 2} & \ pisteet \\\ gamma _ {1} & \ gamma _ {0} & \ gamma _ {- 1} & \ pisteet \\ \ gamma _ {2} & \ gamma _ {1} & \ gamma _ {0} & \ pisteet \\\ vdots & \ vdots & \ vdots & \ ddots \\\ end {bmatrix}} {\ begin {bmatrix} \ varphi _ {1} \\\ varphi _ {2} \\\ varphi _ {3} \\\ vdots \\\ end {bmatrix}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f06c0d88d00448283d83764012098b3618ed482)
Jos m = 0, meillä on
y0=∑k=1sφky-k+σe2{\ displaystyle \ gamma _ {0} = \ summa _ {k = 1} ^ {p} \ varphi _ {k} \ gamma _ {- k} + \ sigma _ {\ varepsilon} ^ {2}}![\ gamma _ {0} = \ summa _ {k = 1} ^ {p} \ varphi _ {k} \ gamma _ {- k} + \ sigma _ {\ varepsilon} ^ {2}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17a4c41947026759238a648af29cbc9e0262dff0)
joka auttaa löytämään .
σe2{\ displaystyle \ sigma _ {\ varepsilon} ^ {2}}![\ sigma _ {\ varepsilon} ^ {2}](https://wikimedia.org/api/rest_v1/media/math/render/svg/eec379b86e73255492d3266c76f6e17acfdfabd1)
Yule-Walker-yhtälöt tarjoavat tavan arvioida AR ( p ) -mallin parametrit korvaamalla teoreettiset kovarianssit arvioiduilla arvoilla. Yksi tapa saada nämä arvot on tarkastella lineaarisen regression ja X t sen s ensimmäisen viiveen.
Yule-Walker-yhtälöiden hankkiminen
AR-prosessin määrittävä yhtälö on
Xt=∑i=1sφiXt-i+et.{\ displaystyle X_ {t} = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} + \ varepsilon _ {t}. \,}![X_ {t} = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} + \ varepsilon _ {t}. \,](https://wikimedia.org/api/rest_v1/media/math/render/svg/3205540c1ef347c0169c41c2ccb3a556c55ca165)
Laskemalla kaksi jäsentä X t - m: llä ja ottamalla odotukset, saamme
E[XtXt-m]=E[∑i=1sφiXt-iXt-m]+E[etXt-m].{\ displaystyle E [X_ {t} X_ {tm}] = E \ vasen [\ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ oikea] + E [\ varepsilon _ {t} X_ {tm}].}![E [X_ {t} X_ {tm}] = E \ vasen [\ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ oikea] + E [ \ varepsilon _ {t} X_ {tm}].](https://wikimedia.org/api/rest_v1/media/math/render/svg/d0824e2d072b36aae0431637988b5efdb598d42d)
Nyt, käy ilmi, että E [ X t X t - m ] = γ m määritelmän mukainen autokovarianssifunktio. Valkoisen kohinan termit ovat toisistaan riippumattomia ja lisäksi X t - m on riippumaton ε t: stä, jossa m on suurempi kuin nolla. Jos m > 0, E [ε t X t - m ] = 0. Jos m = 0,
E[etXt]=E[et(∑i=1sφiXt-i+et)]=∑i=1sφiE[etXt-i]+E[et2]=0+σe2,{\ displaystyle E [\ varepsilon _ {t} X_ {t}] = E \ vasen [\ varepsilon _ {t} \ left (\ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} + \ varepsilon _ {t} \ right) \ right] = \ sum _ {i = 1} ^ {p} \ varphi _ {i} \, E [\ varepsilon _ {t} \, X_ { ti}] + E [\ varepsilon _ {t} ^ {2}] = 0+ \ sigma _ {\ varepsilon} ^ {2},}![E [\ varepsilon _ {t} X_ {t}] = E \ vasen [\ varepsilon _ {t} \ vasen (\ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti } + \ varepsilon _ {t} \ right) \ right] = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \, E [\ varepsilon _ {t} \, X_ {ti}] + E [\ varepsilon _ {t} ^ {2}] = 0+ \ sigma _ {\ varepsilon} ^ {2},](https://wikimedia.org/api/rest_v1/media/math/render/svg/525dcfb63320ca8507b03d9ba9071bb86fbda251)
Nyt meillä on m ≥ 0,
ym=E[∑i=1sφiXt-iXt-m]+σe25m.{\ displaystyle \ gamma _ {m} = E \ vasen [\ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ oikea] + \ sigma _ { \ varepsilon} ^ {2} \ delta _ {m}.}![\ gamma _ {m} = E \ vasen [\ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ oikea] + \ sigma _ {\ varepsilon} ^ {2} \ delta _ {m}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/6bbd0638b2d0cf352d9aa0f73bd755f4967f71ad)
Muuten,
E[∑i=1sφiXt-iXt-m]=∑i=1sφiE[XtXt-m+i]=∑i=1sφiym-i,{\ displaystyle E \ vasen [\ sum _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ right] = \ summa _ {i = 1} ^ {p } \ varphi _ {i} \, E [X_ {t} X_ {tm + i}] = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \, \ gamma _ {mi}, }![E \ vasen [\ summa _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ oikea] = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \, E [X_ {t} X_ {tm + i}] = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \, \ gamma _ {mi},](https://wikimedia.org/api/rest_v1/media/math/render/svg/ee3e9767b458cf0551a71c2996f5adbfcd9f9cde)
joka antaa Yule-Walker-yhtälöt:
ym=∑i=1sφiym-i+σe25m.{\ displaystyle \ gamma _ {m} = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \ gamma _ {mi} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ { m}.}![\ gamma _ {m} = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \ gamma _ {mi} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ {m}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/a6bae375b849020b32484a0c14badee2d5ce6307)
kun m ≥ 0. Jos m <0,
ym=y-m=∑i=1sφiy|m|-i+σe25m.{\ displaystyle \ gamma _ {m} = \ gamma _ {- m} = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \ gamma _ {| m | -i} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ {m}.}![\ gamma _ {m} = \ gamma _ {- m} = \ summa _ {i = 1} ^ {p} \ varphi _ {i} \ gamma _ {| m | -i} + \ sigma _ {\ varepsilon } ^ {2} \ delta _ {m}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/63150e41ff0211241b757334c155bf2c93e91540)
Liukuva keskiarvomalli
MA ( q ) -merkintä viittaa järjestyksen q liikkuvaan keskiarvomalliin :
Xt=et+∑i=1qθiet-i{\ displaystyle X_ {t} = \ varepsilon _ {t} + \ sum _ {i = 1} ^ {q} \ theta _ {i} \ varepsilon _ {ti} \,}![X_ {t} = \ varepsilon _ {t} + \ summa _ {i = 1} ^ {q} \ theta _ {i} \ varepsilon _ {ti} \,](https://wikimedia.org/api/rest_v1/media/math/render/svg/9254326b153fb712b45aa4b1fd48a15fd6e58bbe)
missä θ 1 ,…, θ q ovat malliparametreja ja ε t , ε t-1 ,… ovat taas virhetermejä.
Huomautus virhetermeistä
Virhetermien e t oletetaan yleensä olevan riippumattomia ja identtisesti jakautuneita (iid) normaalijakauman mukaan , nollakeskiarvo: ε t ~ N (0, σ 2 ), missä σ 2 on varianssi. Näitä oletuksia voidaan lieventää, mutta tämä muuttaisi mallin ominaisuuksia, esimerkiksi olettaen yhden iid-merkin
Viiveoperaattorin erittely
ARMA-mallit voidaan kirjoittaa L: llä , joka on viiveoperaattori . Kirjoitetaan autoregressiivinen malli AR ( p )
et=(1-∑i=1sφiLi)Xt=φXt{\ displaystyle \ varepsilon _ {t} = \ vasen (1- \ summa _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i} \ oikea) X_ {t} = \ varphi X_ { t} \,}![\ varepsilon _ {t} = \ vasen (1- \ summa _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i} \ oikea) X_ {t} = \ varphi X_ {t} \ ,](https://wikimedia.org/api/rest_v1/media/math/render/svg/a7e18554acd84d09dd88f6604abe74f7e3cd421d)
missä φ edustaa polynomia
φ=1-∑i=1sφiLi.{\ displaystyle \ varphi = 1- \ summa _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i}. \,}![\ varphi = 1- \ summa _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i}. \,](https://wikimedia.org/api/rest_v1/media/math/render/svg/fa3412e21fe5c350b27b3d7d8d0e27b1a99dcec4)
Liukuvan keskiarvon mallille MA ( q ) meillä on
Xt=(1+∑i=1qθiLi)et=θet{\ displaystyle X_ {t} = \ vasen (1+ \ summa _ {i = 1} ^ {q} \ theta _ {i} L ^ {i} \ oikea) \ varepsilon _ {t} = \ theta \ varepsilon _ {t} \,}![X_ {t} = \ vasen (1+ \ summa _ {i = 1} ^ {q} \ theta _ {i} L ^ {i} \ oikea) \ varepsilon _ {t} = \ theta \ varepsilon _ {t } \,](https://wikimedia.org/api/rest_v1/media/math/render/svg/d931bb4fe887b23f57261d166f3f2af7c21a6ec5)
missä θ edustaa polynomia
θ=1+∑i=1qθiLi.{\ displaystyle \ theta = 1 + \ summa _ {i = 1} ^ {q} \ theta _ {i} L ^ {i}. \,}![\ theta = 1 + \ summa _ {i = 1} ^ {q} \ theta _ {i} L ^ {i}. \,](https://wikimedia.org/api/rest_v1/media/math/render/svg/429f564bc1def24bae2e85c8d5c52f01baf69969)
Lopuksi yhdistämällä nämä kaksi näkökohtaa saadaan ARMA-mallin ( p , q ) kirjoittaminen:
(1-∑i=1sφiLi)Xt=(1+∑i=1qθiLi)et{\ displaystyle \ left (1- \ sum _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i} \ right) X_ {t} = \ left (1+ \ summa _ {i = 1} ^ {q} \ theta _ {i} L ^ {i} \ oikea) \ varepsilon _ {t} \,}![\ vasen (1- \ summa _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i} \ oikea) X_ {t} = \ vasen (1+ \ summa _ {i = 1} ^ {q} \ theta _ {i} L ^ {i} \ oikea) \ varepsilon _ {t} \,](https://wikimedia.org/api/rest_v1/media/math/render/svg/b3d085e72f80d76d1cee533e3444a5b3acdc8abd)
missä lyhyempi:
φXt=θet.{\ displaystyle \ varphi X_ {t} = \ theta \ varepsilon _ {t}. \,}![\ varphi X_ {t} = \ theta \ varepsilon _ {t}. \,](https://wikimedia.org/api/rest_v1/media/math/render/svg/17b173f2a7e19d67426aac30971c332c9ebc6e96)
Fit malli
Kun järjestykset p ja q on valittu , ARMA-mallit voidaan sovittaa dataan pienimmän neliösumman menetelmällä : etsimme parametreja, jotka minimoivat jäännösten neliöiden summan. Pienimpien p- ja q- arvojen ottamista pidetään yleensä hyvänä käytäntönä ( parsimonian periaate ). Puhtaalle AR-mallille Yule-Walker-yhtälöt mahdollistavat säätämisen.
Huomautuksia ja viitteitä
Bibliografia
-
(fr) Jean-Jacques Droesbeke, Bernard Fichet, Philippe Tassi, kronologinen sarja - ARIMA-mallien teoria ja käytäntö , Economica , 1989 ( ISBN 2-7178-1549-X )
-
(en) George EP Box , Gwilym Jenkins ja Gregory C. Reinsel, Aikasarjojen analyysi: ennuste ja hallinta , kolmas painos. Prentice-Hall, 1994.
-
(en) Terence C. Mills, Time Series Techniques for Economists , Cambridge University Press, 1990.
-
(en) Donald B. Percival ja Andrew T. Walden, fyysisten sovellusten spektrianalyysi. Cambridge University Press, 1993.
-
(en) Sudhakar M.Pandit ja Shien-Ming Wu, aikasarjat ja järjestelmäanalyysi sovelluksilla. John Wiley & Sons, 1983.
-
(en) James D.Hamilton, Aikasarjojen analyysi , Princeton University Press, 1994
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">