Luonto | Tilastollinen menetelmä ( d ) |
---|---|
Keksijä | Herman Wold |
Osittainen pienimmän neliösumman regressio keksittiin vuonna 1983 Svante Wold ja isä Herman Wold ; englanninkielistä lyhennettä PLS ( " Partial Least Squares regression " ja / tai " Projection to Latent Structure " ) käytetään usein . PLS regressio maksimoi varianssi ennustajia (X i ) = X ja maksimoi korrelaatio X ja selittävänä muuttujana Y. Tämä algoritmi lainaa sen lähestymistapaa sekä pääkomponenttianalyysi (PCA) ja regressio . Tarkemmin sanottuna PLS-regressio etsii komponentteja, joita kutsutaan piileviksi muuttujiksi , jotka liittyvät X: ään ja Y: hen, ja jotka ilmaisevat Y: n regressiota näillä muuttujilla ja lopuksi Y: n regressiota X: llä.
Vuonna 1966 Herman Wold ehdotti pääkomponenttianalyysiksi algoritmia, jonka nimi oli ensin NILES ( "Ei- lineaarinen arviointi iteratiivisilla pienimmillä neliöillä " ), sitten NIPALS ( "Ei- lineaarinen estimointi Iterative PArtialin vähiten neliöillä " ).
Vuonna 1975 hän esitteli PLS-lähestymistavan analysoidakseen J-muuttujalohkoina ilmaistuja tietoja samoista henkilöistä.
Vuonna 1983 Svante Wold (Herman Woldin poika) ja Harald Martens yhdistivät NIPALS: n ja PLS-lähestymistavan mukauttamaan ne regressioon siinä tapauksessa, että muuttujien määrä on paljon suurempi kuin havaintojen määrä (ja jos havaitaan vahva monikollinaarisuus) .
Vuonna 1989 Svante Wold, Nouna Kettaneh-Wold ja Bert Skagerberg esittivät ensin epälineaarisen PLS-regressiota.
Vuonna 1990 M. Stone ja RJ Brooks ehdottivat parametrimenetelmää, joka mahdollisti PLS-menetelmän käytön monilinjaiseen regressioon , PLS: ään ja pääkomponenttiregressioon.
PLS-lähestymistavan mallia sovelletaan jatkuvien muuttujien lohkoihin, joita kutsutaan manifestimuuttujiksi, kukin näistä lohkoista on havaintoja samoille yksilöille. Tässä mallissa uskotaan, että jokainen muuttujalohko voidaan tiivistää piilevällä muuttujalla. Manifesti-muuttujat voivat luoda piileviä muuttujia, niitä kutsutaan sitten muodostaviksi manifest-muuttujiksi tai ne voidaan luoda piilevien muuttujien avulla, jolloin niitä kutsutaan heijastaviksi manifest-muuttujiksi. Niin sanotut endogeeniset latentit muuttujat selitetään muilla piilevillä muuttujilla, selittäviä latentteja muuttujia kutsutaan eksogeenisiksi.
Kuten lineaariset regressiot, myös PLS-regressio olettaa mallin (1)
Etsimme kahta matriisisarjaa T ja U " pisteistä " , P ja Q " kuormituksista " , kuten
Toisaalta X: n kertoimet ovat hyviä ennustajia Y: lle, mikä on kirjoitettu (4)
tai
S. Wold et ai. selitä täten PLS-regression eri matriisit:
Dimensiomatriisit T kerrottuna varausmatriiseilla P 'ovat hyvä yhteenveto X: stä varmistaen, että jäännöstermin E ovat heikot. Samoin U ja Q 'ovat hyviä yhteenvetoja Y: stä, minimoimalla F: n. X: n kertoimet ovat myös hyviä Y: n ennustajia (katso yht. (4) yllä).Jäännökset G ilmaisevat havainnon ja mallin välisen eron. Löydämme monivaiheisen regressiomallin (1)
PLS-algoritmi, joka on saanut inspiraationsa PLS-lähestymistavasta ja NIPALSista, on iteratiivinen. Jokainen iteroinnin vaihe tuottaa komponentin.
Klassinen monimuuttujainen PLS-regressio (PLS2) -algoritmi on määritelty alla:
Joo Vaihe1 - , 2. askel - Vaihe 2.1 - Vaihe 2.2 - toista kunnes Vaihe 2.2.1 - Vaihe 2.2.2 - normalisoi arvoksi 1 Vaihe 2.2.3 - Vaihe2.2.4 - Vaihe2.2.5 - Vaihe 2.3 - Vaihe 2.4 - Vaihe 2.5 -Laadun arvio on arvioitu rajat validointi, tai käyttämällä R 2 tai Q 2 Stone-Geisser.
Tulkinta tapahtuu samalla tavalla kuin pääkomponenttianalyysissä, käyttäen graafeja, jotka esittävät havaintoja piilevien muuttujien akseleilla. Parametreilla t ja u on yhtäläisyyksiä / eroja esineiden (yksilöiden) välillä. Silti S. Woldin ym. Mukaan painot w ja c antavat tietoa Y: n ja X: n välisestä korrelaatiosta. Y: n jäännöksiä käytetään arvioimaan sopivuus malliin, X: n jäännöksiä käytetään poikkeavien havaitsemiseen.
Geometrisesti PLS-regressio on projektio X-avaruuden hypertasolle siten, että tämä taso on hyvä arvio X: n pistepilvestä ja jonka projektioiden koordinaatit ( p ) ovat hyviä Y: n ennusteita.
On ainakin kaksi tapaa ottaa käyttöön epälineaarisuuden PLS lähestymistapa: ensimmäinen on epälineaarinen muunnos havainto datan sitten suorittaa PLS-lineaarisen regression nämä muunnetun datan, toinen on olettaa, että piilomuuttujiksi t ja u liittyvät epälineaaristen suhteiden avulla.
Ensimmäisessä luokassa ovat menetelmät, kuten: Anders Berglundin ja Svante Woldin INLR ( " implisiittinen epälineaarinen piilevä muuttujan regressio " ) lisää X-muuttujien neliöt ennustemuuttujiin .
Toisessa voimme luetella: