Fisher-tiedot

Fisher-tiedot
Luonto Käsite
Keksijä Ronald Aylmer Fisher
Nimetty viitteeksi Ronald Aylmer Fisher

Fisherin informaatio on käsite tilastollisen käyttöön RA Fisher joka määrittää liittyvät tiedot parametrin sisältämän jakelussa. Se on määritelty odotuksia havaittu tietoja, tai jopa kun varianssi on pisteet toiminto . Moniparametrisessa tapauksessa puhumme Fisherin informaatiomatriisista.

Määritelmä

Olkoon f ( x  , θ ) on todennäköisyys jakelu satunnaismuuttuja X (joka voi olla moniulotteinen), parametroida θ . Pisteet määritellään log-todennäköisyyden osittaiseksi johdannaiseksi parametrin θ suhteen  :

Fisher-tiedot määritellään sitten pistefunktion toisen asteen hetkeksi:

.

On mahdollista osoittaa, että pistefunktiolla ei ole odotuksia. Fisher-tieto vastaa siis myös pistefunktion varianssia .

Huomaamaton muotoilu

Eri havainnot antavat meille mahdollisuuden ottaa näytteeksi todennäköisyystiheysfunktio f ( x  ; θ ) . Suurimman todennäköisyyden on maksimoida todennäköisyys . Jos havaintoja ei ole korreloitu, todennäköisin arvo annetaan meille maksimiarvolla

mikä on myös suurin

Logaritmin kulku sallii tuotteen muuntamisen summaksi, jonka avulla voimme löytää maksimin johdannaisella:

Tämä summa vastaa riittävän suurta määrää havaintoja matemaattiseen odotukseen. Tämän yhtälön ratkaiseminen mahdollistaa parametrin joukosta estimaattorin θ löytämisen suurimman todennäköisyyden merkityksessä. Nyt on kysymys arvioidemme tarkkuuden kvantifioimisesta. Siksi pyrimme arvioimaan θ todennäköisyysjakauman muodon estimaattorin antaman arvon ympärillä . Laajennuksesta, joka on rajoitettu järjestykseen 2, koska lineaarinen termi on korkeintaan nolla, saadaan:

missä on θ : tä koskevat Fisher-tiedot suurimman todennäköisyyden pisteessä. Tämä tarkoittaa, että θ seuraa ensimmäisenä likiarvona Gaussin odotusten ja varianssien lakia  :

Tätä varianssia kutsutaan Cramér-Rao-sidokseksi ja se on paras estimointitarkkuus, joka saavutetaan a priori puuttuessa.

Additiivisuus

Yksi Fisher-tiedon perusominaisuuksista on sen additiivisuus. Kahden riippumattoman satunnaismuuttujan tuloksena saatu tieto on tietojen summa:

Jos meillä on N riippumatonta toteutusta, jotka noudattavat samaa todennäköisyystiheyttä, tuloksena oleva tieto on yksinkertainen yksittäisen tiedon skaalaus.

Kun satunnaismuuttujan X tilasto S (X) on tyhjentävä , tilastoon liittyvä informaatio on pienempi tai yhtä suuri kuin satunnaismuuttujan tieto. Toisin sanoen

yhdenvertaisuuteen varten riittävänä indikaattorina .

Moniparametrinen muotoilu

Tapauksessa, jossa todennäköisyysjakauma f ( X ) riippuu useista parametreista, θ ei ole enää skalaari vaan vektori . Suurimman todennäköisyyden etsiminen ei siis johdu vain yhdestä yhtälöstä vaan järjestelmästä:

johdamme suhteessa . Lopuksi, Fisher-tietoja ei enää määritellä skalaarisena varianssina, vaan kovarianssimatriisina  :

Cramér-Raon arvio ja terminaali

Tämän matriisin käänteinen antaa mahdollisuuden määrittää Cramér-Rao- rajat , ts. Kovarianssit, jotka liittyvät havaintojen eri parametrien yhteisiin arvioihin: tosiasia, että kaikki parametrit on arvioitava samanaikaisesti, vaikeuttaa estimointia . Tämä ilmiö on osoitus siitä, mitä joskus kutsutaan "  ulottuvuuden rutoksi  ". Tästä syystä käytämme mahdollisuuksien mukaan etukäteen parametreja (menetelmä a posteriorin enimmäismäärän arvioimiseksi ). Siksi rajoitamme kunkin parametrin epävarmuutta, mikä rajoittaa vaikutusta yhteisarvioon.

Fisher-metriikka

Tämä matriisi on yleisesti kutsutaan Fisher tiedot metristä ;

Todellakin, kulku havaintojen avaruudesta parametrien avaruuteen on kaarevan koordinaattijärjestelmän muutos . Parametrin pohja, jossa kovarianssi kuin piste tuote , tämä matriisi on metriikka. Tämä geometrinen näkökulmasta, käyttöön C. Rao, sitten laajasti kehittäneet S. Amari nimellä tiedot geometria . Metriikka ei yleensä ole invariantti, ja parametriavaruus on Riemannin . Cramér-Rao epäyhtälö on tulkittava ilmentymisen Schwarz epätasa välinen vektori jakauman derivaatta mukainen parametri ja sen kaksi. Fisher-informaatiolla on erityinen rooli metriikkana sen additiivisuuden ja muuttumattomuusominaisuuksien vuoksi tilastolliseen otantaan nähden (Chentsovin tai Čencovin lause). Se on metriikka, joka on siksi luonnollinen, kun tarkastellaan todennäköisyysjakaumia. Lisäksi lähestymistapa tiedon käsitteeseen differentiaaligeometrian kulmasta antaa mahdollisuuden ehdottaa yhtenäistä kehystä, joka yhdistää eri käsitteet:

Vaihtoehtoiset formulaatiot

Fisher-tiedoista on hyvin suuri määrä vaihtoehtoisia formulaatioita, jotka paljastavat mielenkiintoisia ominaisuuksia.

. .

Tilastotiedot

Samalla tavalla kuin olemme määrittäneet Fisher-informaation havaintovektorille X, voimme määritellä tilastoon S ( X ) sisältyvät Fisher-tiedot  :

Tämä määritelmä on täsmälleen sama kuin Fisherin X-informaatio moniparametrisessä mallissa, korvataan vain X: n tiheys tilastolla S (X) olevan S: n tiheydellä. Kaksi teemaa kuvaa tämän käsityksen kiinnostusta:

Linkit muihin käsitteisiin

Fisherin tiedot on linkitetty muihin käsitteisiin:

Energian säästämisen katsotaan johtuvan tietojen säilyttämisestä. Tarkastellaan esimerkiksi monimutkaista aaltofunktiota (sellainen, että hiukkasen läsnäolon todennäköisyystiheys on ) Minkowskin koordinaateissa (i x , i y , i z , ct ) . Jos pidämme näitä koordinaatteja kanonisina, ts. Riittävinä, ekvivalentteina ja riippumattomina, niihin liittyvä sisäinen Fisher-tieto on

missä .

Läpäisemällä vastavuoroisen tilan se tulee:

.

Toisin sanoen Planckin suhteiden mukaan

.

Tämän tiedon säilyttäminen vastaa käsitteellisesti hiukkasten massan muuttumattomuutta erityisen suhteellisuusteollisuuden klassisen suhteen mukaan , jolla kvanttifysiikan suhteen on vastaava Klein-Gordon-yhtälö .

Huomautuksia ja viitteitä

  1. CR Rao , Tiedot ja tarkkuus saavutettavissa tilastollisten parametrien arvioinnissa, Bulletin of Calcutta Mathematical Society, 37: 81-91, 1945
  2. S. Amari, H. Nagaoka, Tietogeometrian menetelmät , Matemaattisten monografioiden käännökset; v. 191, American Mathematical Society, 2000 ( ISBN  978-0821805312 )
  3. B.R.Frieden, Science from Fisher Information , Cambridge, 2004
  4. NN Chentsov (Čencov), tilastolliset päätöksentekosäännöt ja optimaalinen päätelmä , käännökset matemaattisista monografioista; v. 53, American Mathematical Society, 1982
  5. CR Rao, Differential Geometry in Statistical Inference, Luku 5, Matemaattisten tilastojen instituutti, 1987

Katso myös

Aiheeseen liittyvät artikkelit

Ulkoiset linkit

<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">