Hiukkassuodatin
Hiukkassuodattimien , joka tunnetaan myös menetelmiä Monte Carlo peräkkäisiä ovat hienostuneita tekniikoita arviointiin ja mallien perustuu simulointiin .
Hiukkassuodattimia käytetään yleensä Bayesin verkkojen arvioimiseen, ja ne muodostavat 'online-menetelmiä, jotka ovat analogisia Markov-ketjujen Monte-Carlo-menetelmien kanssa, jotka ovat' off-line '-menetelmiä (siis posteriori ) ja usein samanlaisia kuin etuuskohteluun oikeutetut näytteenottomenetelmät .
Jos hiukkassuodattimet on suunniteltu oikein, ne voivat olla nopeampia kuin Monte Carlo Markov -ketjumenetelmät. Ne ovat usein vaihtoehto laajennetuille Kalman-suodattimille sillä etulla, että riittävillä näytteillä ne lähestyvät optimaalista Bayesin estimaattia. Siksi ne voidaan tehdä tarkemmiksi kuin Kalman-suodattimet. Lähestymistapoja voidaan myös yhdistää käyttämällä Kalman-suodatinta hiukkassuodattimen jakeluehdotuksena.
Päämäärä
Hiukkassuodattimen tavoitteena on arvioida tilamuuttujien takatiheys havaintomuuttujat huomioiden. Hiukkassuodatin on suunniteltu piilotetulle Markov-mallille , jossa järjestelmä koostuu piilotetuista ja havaittavista muuttujista. Havaittavat muuttujat (havainnointiprosessi) linkitetään piilotettuihin muuttujiin (tilaprosessi) tunnetulla toiminnallisella muodolla. Samoin dynaaminen järjestelmä, joka kuvaa tilamuuttujien evoluutiota, tunnetaan myös todennäköisyysperiaatteella.
Yleinen hiukkassuodatin arvioi piilotettujen tilojen takajakauman havainnoivan mittausmenetelmän avulla. Tarkastellaan alla olevassa kaaviossa esitettyä tilatilaa
X0⟶X1⟶X2⟶X3⟶...sigeiklol↓↓↓...Y0Y1Y2Y3...observklotioei{\ displaystyle {\ begin {matrix} X_ {0} & \ longrightarrow & X_ {1} & \ longrightarrow & X_ {2} & \ longrightarrow & X_ {3} & \ longrightarrow & ... & signal \\\ downarrow && \ alaspäin && \ alaspäin && ... \\ Y_ {0} && Y_ {1} && Y_ {2} && Y_ {3} && ... ja havainto \ loppu {matriisi}}}
Suodatusongelma koostuu piilotettujen tilojen arvojen arvioimisesta peräkkäin , ottaen huomioon havaintoprosessin arvot , missä tahansa vaiheessa .
Xk{\ displaystyle X_ {k}}
Y0,...,Yk{\ displaystyle Y_ {0}, ..., Y_ {k}}
k{\ displaystyle k}![k](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3c9a2c7b599b37105512c5d570edc034056dd40)
Kaikki Bayesin arviot takaosan tiheydestä seuraavat . Hiukkassuodatinmenetelmä tarjoaa näiden ehdollisten todennäköisyyksien likiarvon käyttämällä geenityyppiseen algoritmiin liittyvää empiiristä mittausta. Toisaalta Markovin Monte-Carlo-menetelmä tai tärkeysketjujen otantamenetelmä mallinnaisi koko takaosan .
Xk{\ displaystyle X_ {k}}
s(xk∣y0,y1,...,yk){\ displaystyle p (x_ {k} \ y y {0}, y_ {1}, ..., y_ {k})}
s(x0,x1,...,xk∣y0,y1,...,yk){\ displaystyle p (x_ {0}, x_ {1}, ..., x_ {k} \ y y {0}, y_ {1}, ..., y_ {k})}![{\ displaystyle p (x_ {0}, x_ {1}, ..., x_ {k} \ y y {0}, y_ {1}, ..., y_ {k})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6f53be1bd9174692e1d11354a1848c089f723a7f)
Signaalin havaintomalli
Hiukkasmenetelmissä oletetaan usein, että havainnot voidaan mallintaa tässä muodossa:
Xk{\ displaystyle X_ {k}}
Yk{\ displaystyle Y_ {k}}![{\ displaystyle Y_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f232884d316da11fdb37493839c901bbd9397658)
-
X0,X1,...{\ displaystyle X_ {0}, X_ {1}, ...}
on (joillekin ) Markov-prosessi , joka kehittyy siirtymätodennäköisyyden tiheyden mukaan . Tämä malli kirjoitetaan usein myös synteettisestiRdx{\ displaystyle \ mathbb {R} ^ {d_ {x}}}
dx⩾1{\ displaystyle d_ {x} \ geqslant 1}
s(xk|xk-1){\ displaystyle p (x_ {k} | x_ {k-1})}
Xk|Xk-1=xk∼s(xk|xk-1){\ displaystyle X_ {k} | X_ {k-1} = x_ {k} \ sim p (x_ {k} | x_ {k-1})}
Alkuperäisellä todennäköisyystiheydellä .s(x0){\ displaystyle p (x_ {0})}![{\ displaystyle p (x_ {0})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9104b98828667238759fe12361ff7ea7665e9e85)
- Havainnot ottavat arvot tietyssä tilatilassa noin (joillekin ) ovat ehdollisesti riippumattomia, jos ne tunnetaan. Toisin sanoen, kukin riippuu vain . Lisäksi oletamme ehdollinen jakauman antanut ovat täysin jatkuvia, ja synteettisesti olemme
Y0,Y1,⋯{\ displaystyle Y_ {0}, Y_ {1}, \ cdots}
Rdy{\ displaystyle \ mathbb {R} ^ {d_ {y}}}
dy⩾1{\ displaystyle d_ {y} \ geqslant 1}
X0,X1,⋯{\ displaystyle X_ {0}, X_ {1}, \ cdots}
Yk{\ displaystyle Y_ {k}}
Xk{\ displaystyle X_ {k}}
Yk{\ displaystyle Y_ {k}}
Xk=xk{\ displaystyle X_ {k} = x_ {k}}
Yk|Xk=yk∼s(yk|xk){\ displaystyle Y_ {k} | X_ {k} = y_ {k} \ sim p (y_ {k} | x_ {k})}![{\ displaystyle Y_ {k} | X_ {k} = y_ {k} \ sim p (y_ {k} | x_ {k})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c7fc1a10d7a346bf492c794b3a3ce4d8bab80d03)
Esimerkki järjestelmästä, jolla on nämä ominaisuudet, on:
Xk=g(Xk-1)+Wk{\ displaystyle X_ {k} = g (X_ {k-1}) + W_ {k}}
Yk=h(Xk)+Vk{\ displaystyle Y_ {k} = h (X_ {k}) + V_ {k}}
Jossa kaksi ja ovat toisistaan riippumattomia-sekvenssit tiheysfunktio n ja ja tunnettuja ovat tunnettuja toimintoja. Nämä kaksi yhtälöä, voidaan ajatella tila-avaruuden yhtälöt ja muistuttavat tila-avaruus yhtälöt Kalman-suodattimen. Jos toiminnot g ja h yllä olevassa esimerkissä ovat lineaarisia, ja molemmat ja ovat Gaussin Kalman Filter löytää tarkka Bayes-suodatin jakelu. Muussa tapauksessa Kalman-suodattimeen perustuvat menetelmät ovat ensimmäisen kertaluvun approksimaatio (EKF) tai toisen kertaluvun likiarviointi (UKF yleensä, mutta jos todennäköisyysjakauma on Gaussin, kolmas asteen approksimaatio on mahdollinen).
Wk{\ displaystyle W_ {k}}
Vk{\ displaystyle V_ {k}}
g{\ displaystyle g}
h{\ displaystyle h}
Wk{\ displaystyle W_ {k}}
Vk{\ displaystyle V_ {k}}![{\ displaystyle V_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f43bfe96795a33589c12e1500b843f6268d35f2f)
Oletusta, että alkuperäinen jakauma ja Markov-ketjun siirtymät ovat ehdottoman jatkuvia Lebesgue-mittarin suhteen, voidaan lieventää. Hiukkassuodattimen suunnittelussa meidän on vain oletettava, että voimme ottaa näytteet Markov-ketjun siirtymistä ja laskea toiminnon todennäköisyyden (katso esimerkiksi alla oleva hiukkassuodattimen geneettisen valinnan kuvaus). Markov-siirtymien ehdottoman jatkuva hypoteesi palvelee vain epävirallisesti (ja melko väärin) erilaisten kaavojen johtamista takajakaumien välillä käyttämällä Bayesin ehdollisten tiheyksien sääntöä.
Xk-1→Xk{\ displaystyle X_ {k-1} \ rightarrow X_ {k}}
Xk,{\ displaystyle X_ {k},}
xk↦s(yk|xk){\ displaystyle x_ {k} \ mapsto p (y_ {k} | x_ {k})}
Xk{\ displaystyle X_ {k}}![{\ displaystyle X_ {k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/33c25229c6989c235f9cbb7908331f6d01d0abfe)
Mallinnus
Hiukkassuodattimien oletetaan, että tilat ja havainnot voidaan mallintaa seuraavassa muodossa:
xk{\ displaystyle x_ {k}}
yk{\ displaystyle y_ {k}}![y_ {k}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b2ab0248723a410cc2c67ce06ad5c043dcbb933)
- Parametrien sekvenssi muodostaa ensimmäisen kertaluvun Markov-ketjun siten, että se jakautuu alkuvaiheessa .x0,x1,...{\ displaystyle x_ {0}, x_ {1}, \ pisteet}
xk|xk-1∼sxk|xk-1(x|xk-1){\ displaystyle x_ {k} | x_ {k-1} \ sim p_ {x_ {k} | x_ {k-1}} (x | x_ {k-1})}
s(x0){\ displaystyle p (x_ {0})}![p (x_0)](https://wikimedia.org/api/rest_v1/media/math/render/svg/9104b98828667238759fe12361ff7ea7665e9e85)
- Havainnot ovat ehdollisesti riippumattomia, jos ne tunnetaan. Toisin sanoen kukin havainto riippuu vain parametrista :y0,y1,...{\ displaystyle y_ {0}, y_ {1}, \ pisteet}
x0,x1,...{\ displaystyle x_ {0}, x_ {1}, \ pisteet}
yk{\ displaystyle y_ {k}}
xk{\ displaystyle x_ {k}}
yk|xk∼sy|x(y|xk){\ displaystyle y_ {k} | x_ {k} \ sim p_ {y | x _ {}} (y | x_ {k})}
Esimerkki tästä tilanteesta on {xk=f(xk-1)+vkyk=h(xk)+wk{\ displaystyle \ left \ {{\ begin {matrix} x_ {k} = f (x_ {k-1}) + v_ {k} \\ y_ {k} = h (x_ {k}) + w_ {k } \ end {matrix}} \ right.}
jossa molemmat ja ovat toisistaan riippumattomia ja identtisesti jakautuneet sekvenssien tiedetään todennäköisyystiheysfunktioiden ja missä ja ovat tunnettuja toimintoja. Nämä kaksi yhtälöä, voidaan nähdä tila-avaruuden yhtälöitä ja muistuttavat Kalman-suodattimen .
vk{\ displaystyle v_ {k}}
wk{\ displaystyle w_ {k}}
f(⋅){\ displaystyle f (\ cdot)}
h(⋅){\ displaystyle h (\ cdot)}![h (\ cdot)](https://wikimedia.org/api/rest_v1/media/math/render/svg/3a4e42ce33810cdad2ae2f1f5695206f73000a34)
Jos toiminnot ja olivat lineaarisia, ja jos molemmat ja olivat gaussin , sitten Kalman-suodatin löytää tarkka Bayes- suodatin jakelu . Muussa tapauksessa Kalman-suodatinpohjaiset menetelmät antavat ensimmäisen kertaluvun estimaatin. Hiukkassuodattimet antavat myös likiarvoja, mutta riittävillä hiukkasilla tulokset voivat olla vielä tarkempia.
f(⋅){\ displaystyle f (\ cdot)}
h(⋅){\ displaystyle h (\ cdot)}
vk{\ displaystyle v_ {k}}
wk{\ displaystyle w_ {k}}![w_k](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac808de3e1f01ed40c69d4a350035b19ab28445f)
Monte-Carlo-likiarvo
Hiukkasten menetelmät, kuten kaikki näytteisiin perustuvat menetelmät (kuten MCMC ), luovat joukon näytteitä, jotka likimääräisen suodatusjakauman . Siten näytteillä odotetut arvot suodatusjakauman suhteen ovat likimääräisiä:
missä on (L): n partikkeli tällä hetkellä ; ja voi tavallisella tavalla Monte Carlon menetelmillä antaa kaikki jakauman tiedot ( momentit jne.) tiettyyn likiarvoon asti.
s(xk|y0,...,yk){\ displaystyle p (x_ {k} | y_ {0}, \ pistettä, y_ {k})}
P{\ displaystyle P}
∫f(xk)s(xk|y0,...,yk)dxk≈1P∑L=1Pf(xk(L)){\ displaystyle \ int f (x_ {k}) p (x_ {k} | y_ {0}, \ pisteitä, y_ {k}) dx_ {k} \ noin {\ frac {1} {P}} \ summa _ {L = 1} ^ {P} f (x_ {k} ^ {(L)})}
xk(L){\ displaystyle x_ {k} ^ {(L)}}
k{\ displaystyle k}
f(⋅){\ displaystyle f (\ cdot)}![f (\ cdot)](https://wikimedia.org/api/rest_v1/media/math/render/svg/6ec4adac182c93a76f0238a839ebb10b124e54c2)
Yleensä algoritmi toistetaan iteratiivisesti tietylle määrälle arvoja (jotka huomaamme ).
k{\ displaystyle k}
EI{\ displaystyle N}![EI](https://wikimedia.org/api/rest_v1/media/math/render/svg/f5e3890c981ae85503089652feb48b191b57aae3)
Initialize for All Particles tarjoaa lähtökohdan luoda , jota voidaan käyttää luomiseen , jota voidaan käyttää luomiseen , ja niin edelleen .
xk=0|k=0{\ displaystyle x_ {k} = 0 | _ {k = 0}}
x1{\ displaystyle x_ {1}}
x2{\ displaystyle x_ {2}}
x3{\ displaystyle x_ {3}}
k=EI{\ displaystyle k = N}![k = N](https://wikimedia.org/api/rest_v1/media/math/render/svg/2e302b20f7f5064ac2ebb7734304fd430ad737a7)
Kun tämä on tehty, keskiarvo on yli kaikkien hiukkasten (tai ) on suunnilleen todellinen arvo .
xk{\ displaystyle x_ {k}}
1P∑L=1Pxk(L){\ displaystyle {\ frac {1} {P}} \ summa _ {L = 1} ^ {P} x_ {k} ^ {(L)}}
xk{\ displaystyle x_ {k}}![x_k](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d2b88c64c76a03611549fb9b4cf4ed060b56002)
Tärkeysnäytteenoton näytteenotto (SIR)
Näytteenotto uudelleen näytteistämisen tärkeydellä tai näytteenoton tärkeyden uudelleennäytteytys (SIR) on hyvin yleisesti käytetty suodatusalgoritmi. Hän lähestyy suodatus jakelu joukolla painotettuja partikkeleita: .
s(xk|y0,...,yk){\ displaystyle p (x_ {k} | y_ {0}, \ ldots, y_ {k})}
{(wk(L),xk(L)) : L=1,...,P}{\ displaystyle \ {(w_ {k} ^ {(L)}, x_ {k} ^ {(L)}) ~: ~ L = 1, \ ldots, P \}}![\ {(w ^ {(L)} _ k, x ^ {(L)} _ k) ~: ~ L = 1, \ ldots, P \}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6924f1b7cbada4724b257344839a2128eaab4dee)
Merkitys painot ovat likiarvoja suhteellisen posterior todennäköisyydet (tai tiheydet) ja hiukkasia, kuten .
wk(L){\ displaystyle w_ {k} ^ {(L)}}
∑L=1Pwk(L)=1{\ displaystyle \ summa _ {L = 1} ^ {P} w_ {k} ^ {(L)} = 1}![\ sum_ {L = 1} ^ P w ^ {(L)} _ k = 1](https://wikimedia.org/api/rest_v1/media/math/render/svg/fbda7da75c998a24ae4b86a4f24e23e2d75ecdb7)
SIR-algoritmi on rekursiivinen versio tärkeysnäytteistämisestä . Kuten tärkeysotannassa, funktion odotusta voidaan arvioida painotettuna keskiarvona:f(⋅){\ displaystyle f (\ cdot)}
∫f(xk)s(xk|y0,...,yk)dxk≈∑L=1Pw(L)f(xk(L)).{\ displaystyle \ int f (x_ {k}) p (x_ {k} | y_ {0}, \ pisteitä, y_ {k}) dx_ {k} \ noin \ summa _ {L = 1} ^ {P} w ^ {(L)} f (x_ {k} ^ {(L)}).}
Suorituskyky algoritmi on riippuvainen valinta jakaumien suuruudet : .
π(xk|x0:k-1,y0:k){\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k})}![\ pi (x_k | x_ {0: k-1}, y_ {0: k})](https://wikimedia.org/api/rest_v1/media/math/render/svg/c07a6f2fc912bb5af964c66d704cf43bb1f49c2d)
Optimaalinen merkitys jakauma annetaan:π(xk|x0:k-1,y0:k)=s(xk|xk-1,yk).{\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k}) = p (x_ {k} | x_ {k-1}, y_ {k}).}
Siirtymätodennäköisyyttä käytetään kuitenkin usein tärkeysfunktiona, koska se on helpompi laskea, ja se myös yksinkertaistaa myöhempien tärkeyspainojen laskemista:
π(xk|x0:k-1,y0:k)=s(xk|xk-1).{\ displaystyle \ pi (x_ {k} | x_ {0: k-1}, y_ {0: k}) = p (x_ {k} | x_ {k-1}).}
Suodattimien uudelleenottaminen tärkeyden mukaan (CRS) ja todennäköisyydet siirtymille tärkeysfunktiona tunnetaan yleisesti alkusuodattimina ( bootstrap- suodattimina) tai kondensoitumisalgoritmeina .
Resampling välttää ongelman rappeutumista algoritmin. Tämä välttää tilanteita, joissa kaikki muut paitsi yksi tärkeyspainoista ovat lähellä nollaa. Algoritmin suorituskykyyn voi vaikuttaa myös sopivan resampling-menetelmän valinta. Kerrostunut rs ehdottama Kitagawa (1996) on optimaalinen varianssin.
Yksi vaihe peräkkäisen tärkeän resamplingin etenee seuraavasti:
- Sillä piirrämme näytteet tärkeysjakaumista :L=1,...,P{\ displaystyle L = 1, \ ldots, P}
xk(L)∼π(xk|x0:k-1(L),y0:k){\ displaystyle x_ {k} ^ {(L)} \ sim \ pi (x_ {k} | x_ {0: k-1} ^ {(L)}, y_ {0: k})}
- Sillä arvioimme tärkeyspainot normalisointivakion avulla:L=1,...,P{\ displaystyle L = 1, \ ldots, P}
w^k(L)=wk-1(L)s(yk|xk(L))s(xk(L)|xk-1(L))π(xk(L)|x0:k-1(L),y0:k).{\ displaystyle {\ hattu {w}} _ {k} ^ {(L)} = w_ {k-1} ^ {(L)} {\ frac {p (y_ {k} | x_ {k} ^ { (L)}) p (x_ {k} ^ {(L)} | x_ {k-1} ^ {(L)})} {\ pi (x_ {k} ^ {(L)} | x_ {0 : k-1} ^ {(L)}, y_ {0: k})}}.}
- Voit laskea normalisoitu tärkeää painot:L=1,...,P{\ displaystyle L = 1, \ ldots, P}
wk(L)=w^k(L)∑J=1Pw^k(J){\ displaystyle w_ {k} ^ {(L)} = {\ frac {{\ hat {w}} _ {k} ^ {(L)}} {\ sum _ {J = 1} ^ {P} { \ hat {w}} _ {k} ^ {(J)}}}}
- Laskemme arvion hiukkasten todellisesta lukumäärästä EI^eff=1∑L=1P(wk(L))2{\ displaystyle {\ hat {N}} _ {\ mathit {eff}} = {\ frac {1} {\ sum _ {L = 1} ^ {P} \ vasemmalle (w_ {k} ^ {(L) } \ oikea) ^ {2}}}}
- Jos todellinen hiukkasten määrä on pienempi kuin annettu kynnys , suoritetaan uudelleen näytteenotto:
EI^eff<EIthr{\ displaystyle {\ hattu {N}} _ {\ mathit {eff}} <N_ {thr}}
![\ hattu {N} _ \ mathit {eff} <N_ {thr}](https://wikimedia.org/api/rest_v1/media/math/render/svg/164c04dae569acdef8a42da29257eeb844407c3f)
- Vedä hiukkaset nykyisestä hiukkassarjasta todennäköisyydellä, joka on verrannollinen niiden painoon, ja korvaa sitten nykyisten hiukkasten sarja tällä uudella joukolla.P{\ displaystyle P}
![P](https://wikimedia.org/api/rest_v1/media/math/render/svg/b4dc73bf40314945ff376bd363916a738548d40a)
- Varten koko .L=1,...,P{\ displaystyle L = 1, \ ldots, P}
wk(L)=1/P{\ displaystyle w_ {k} ^ {(L)} = 1 / P}![w ^ {(L)} _ k = 1 / P](https://wikimedia.org/api/rest_v1/media/math/render/svg/66093650db3dc21950075ca74a49587804c27757)
Termiä resampling peräkkäinen merkitys (Sequential Importance Resampling) käytetään joskus myös viittaamaan SIR-suodattimiin.
Peräkkäinen tärkeyden näytteenotto (SIS)
Peräkkäinen näytteenotto koon mukaan tai peräkkäinen tärkeyden näytteenotto (SIS) on samanlainen kuin näytteenotto uudelleen näytteistämisen tärkeydellä (SIR), mutta ilman uudelleen näytteenottovaihetta.
Suora versio algoritmista
Yksinkertainen versio algoritmin suhteellisen yksinkertaista verrattuna muihin hiukkasten suodatus algoritmit ja käyttötarkoitukset koostumus ja hylkäämistä. Tuottaa yhden näytteen on annettu :
x{\ displaystyle x}
k{\ displaystyle k}
sxk|y1:k(x|y1:k){\ displaystyle p_ {x_ {k} | y_ {1: k}} (x | y_ {1: k})}![p_ {x_k | y_ {1: k}} (x | y_ {1: k})](https://wikimedia.org/api/rest_v1/media/math/render/svg/d23918c75f62e03a4d8259c57576731048e8ec26)
(1) Aseta p = 1
(2) Luo L
tasaisesti{1,...,P}{\ displaystyle \ {1, ..., P \}}![\ {1, ..., P \}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7ae3d792695701acb8cf41f1afc51869c5a7fa89)
(3) Luo testi sen jakaumasta
x^{\ displaystyle {\ hattu {x}}}
sxk|xk-1(x|xk-1|k-1(L)){\ displaystyle p_ {x_ {k} | x_ {k-1}} (x | x_ {k-1 | k-1} ^ {(L)})}![p_ {x_k | x_ {k-1}} (x | x_ {k-1 | k-1} ^ {(L)})](https://wikimedia.org/api/rest_v1/media/math/render/svg/1f6f41af768b0749fff8912cb3e161c5b9c24f72)
(4) Luo todennäköisyydet käyttäen päässä , jossa on mitattu arvo
y^{\ displaystyle {\ hattu {y}}}
x^{\ displaystyle {\ hattu {x}}}
sy|x(yk|x^){\ displaystyle p_ {y | x} (y_ {k} | {\ hat {x}})}
yk{\ displaystyle y_ {k}}![y_ {k}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4b2ab0248723a410cc2c67ce06ad5c043dcbb933)
(5) Luo toinen
tasaisesti u kohteesta
[0,mk]{\ displaystyle [0, m_ {k}]}![[0, m_k]](https://wikimedia.org/api/rest_v1/media/math/render/svg/f078a6549b4cdecf4b768d5b34bb42ecc5594f34)
(6) Vertaa u ja
y^{\ displaystyle {\ hattu {y}}}![{\ hattu {y}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3dc8de3d8ea01304329ef9518fad7a6d196c4c01)
(a) Jos u on suurempi, toista vaiheesta (2)
(b) Jos u on pienempi, tallenna nimellä ja lisäys p
x^{\ displaystyle {\ hattu {x}}}
xk|k(s){\ displaystyle x {k | k} ^ {(p)}}![x {k | k} ^ {(p)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7222b3f5b89fab450e0cb53ac5f37a53b13bbec8)
(c) Jos p> P, lopeta
Tavoitteena on luoda vaiheessa P- hiukkasia käyttämällä vain vaiheen hiukkasia . Tämä edellyttää, että Markovian yhtälö voidaan kirjoittaa (ja laskea) sellaisen luomiseksi, joka perustuu vain . Tämä algoritmi käyttää P-hiukkasten koostumusta alkaen luomiseen .
k{\ displaystyle k}
k-1{\ displaystyle k-1}
xk{\ displaystyle x_ {k}}
xk-1{\ displaystyle x_ {k-1}}
k-1{\ displaystyle k-1}
k{\ displaystyle k}![k](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3c9a2c7b599b37105512c5d570edc034056dd40)
Tämä voidaan visualisoida helpommin, jos se nähdään kaksiulotteisena ryhmänä. Yksi ulottuvuus on ja toinen ulottuvuus on hiukkasten lukumäärä. Esimerkiksi, se olisi L : n partikkeli vaiheessa ja voidaan siksi kirjoittaa (kuten aiemmin on tehty algoritmissa).
x{\ displaystyle x}
k{\ displaystyle k}
x(k,L){\ displaystyle x (k, L)}
k{\ displaystyle k}
xk(L){\ displaystyle x_ {k} ^ {(L)}}![x_k ^ {(L)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aebd6c3b292ac5d07c41c1aa8b4b183112cb3fe2)
Vaihe (3) luo potentiaalin satunnaisesti valitun hiukkasen ( ) perusteella ajoissa ja hylkää tai hyväksyy tämän hiukkasen vaiheessa (6). Toisin sanoen arvot lasketaan käyttämällä aiemmin laskettua.
xk{\ displaystyle x_ {k}}
xk-1(L){\ displaystyle x_ {k-1} ^ {(L)}}
k-1{\ displaystyle k-1}
xk{\ displaystyle x_ {k}}
xk-1{\ displaystyle x_ {k-1}}![x_ {k-1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c60c4443107198983b1ced988c34b238bcd9119)
Huomautuksia ja viitteitä
-
(in) Sanjeev Arulampalam, " Tutorial of Particle Filters for Online Nonlinear / Non-Gaussian Bayesian Tracking " , IEEE-LIIKETOIMINNOT SIGNAALINKÄSITTELYYN, VOL. 50, EI. 2 ,Helmikuu 2002
-
(en) " Hiukkassuodattimet "
-
Katso myös
Bibliografia
-
Peräkkäiset Monte Carlon menetelmät käytännössä , kirjoittanut A Doucet, N de Freitas ja N Gordon. Lähettäjä Springer.
-
Sequential Monte Carlo Sampling Methods for Bayesian Filtering , kirjoittanut A Doucet, C Andrieu ja S. Godsill, Statistics and Computing, voi. 10, ei. 3, s. 197-208 , 2000 CiteSeer-linkki
-
Opetusohjelma hiukkassuodattimista online-epälineaariseen / ei-Gaussin Bayesin seurantaan (2001) ; S. Arulampalam, S. Maskell, N. Gordon ja T. Clapp; CiteSeer-linkki
Ulkoiset linkit
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">