Welcome to Our Website

Ymmärtäminen OLS-menetelmä Yksinkertainen Lineaarinen Regressio

Lineaarinen Regressio on perheen algoritmeja työssä valvoo koneen oppimistehtäviä (lisätietoja valvottu oppiminen, voit lukea minun entinen artikkeli täällä). Tietäen, että valvotut ML-tehtävät jaetaan yleensä luokitukseen ja regressioon, voimme koota lineaariset Regressioalgoritmit jälkimmäiseen luokkaan., Se eroaa luokittelu luonteen vuoksi kohde-muuttuja: luokitus, target on ehdoton arvo (’kyllä/ei’, ’punainen/sininen/vihreä’, ’roskapostia/ei roskapostia’…); toisaalta, regressio liittyy numeerinen, jatkuva arvoja kuin tavoite, joten algoritmi pyydetään ennustaa jatkuvan määrä sen sijaan luokka-tai luokka. Nimittäin kuvitella haluat ennustaa hinta talon perustuu joitakin suhteellisia ominaisuuksia: tuotos mallin on hinta, joten jatkuva määrä.,

Regressiotehtävät voidaan jakaa kahteen pääryhmään: niihin, jotka käyttävät vain yhtä ominaisuutta kohteen ennustamiseen, ja niihin, jotka käyttävät useampaa kuin yhtä ominaisuutta tähän tarkoitukseen. Antaa teille esimerkin, katsotaanpa harkita talon tehtävä edellä: jos haluat ennustaa sen hinta perustuu vain sen potenssiin metriä, voit jakaa ensimmäinen tilanne (yksi ominaisuus); jos aiot ennustaa hinta perustuu, sanotaan, sen neliö metriä, sen asema ja liveability ympäristöön, aiot pudota toinen tilanne (useita ominaisuuksia, tässä tapauksessa kolme).,

ensimmäisessä skenaariossa, algoritmi olet todennäköisesti työllistävät on Yksinkertainen Lineaarinen Regressio, joka on yksi aiomme puhua tässä artikkelissa. Toisaalta, kun sinulla on edessään enemmän kuin yksi ominaisuuksia pystyy selittämään kohde-muuttuja, olet todennäköisesti työllistävät Useita Lineaarinen Regressio.,

Yksinkertainen Lineaarinen Regressio on tilastollinen malli, jota käytetään laajasti ML regressio tehtäviä, jotka perustuvat ajatukseen, että suhde kahden muuttujan voidaan selittää seuraavalla kaavalla:

Missä ei on virhetermi, ja α, β ovat totta (mutta huomaamatta) parametrit regressio., Parametri β kuvaa vaihtelu riippuva muuttuja, kun riippumaton muuttuja on yhtenäinen vaihtelu: eli, jos parametri on yhtä suuri kuin 0.75, kun x kasvaa 1, minun riippuva muuttuja kasvaa 0.75. Toisaalta parametri α edustaa riippuvaisen muuttujan arvoa, kun itsenäinen on nolla.,

katsotaanpa visualisoida graafisesti:

Nyt, ajatus Yksinkertainen Lineaarinen Regressio on löytää ne parametrit α ja β jolla virhe aikavälillä on minimoitu. Tarkemmin sanottuna, malli on minimoida potenssiin virheet: todellakin, emme halua, että meidän positiivinen virheet voidaan kompensoida kielteisiä, koska ne ovat yhtä rangaista meidän malli.,

This procedure is called Ordinary Least Squared error — OLS.

Let’s demonstrate those optimization problems step by step.,r α:

Kun on saatu nuo arvot α ja β, jotka minimoida potenssiin virheet, meidän malli on yhtälö näyttää, että:

yhteenvetona, voit harkita OLS strategia saada, teidän malli, ’suora’, joka on mahdollisimman lähellä teidän tiedot pistettä., Vaikka OLS ei ole ainoa optimointi strategia, se on suosituin tällaista tehtäviä, koska lähdöt regressio (jotka ovat, kertoimet) ovat puolueeton estimaattorit todellisia arvoja alpha ja beta. Todellakin, mukaan Gauss-Markovin Lause, alla joitakin oletuksia lineaarisen regressiomallin (lineaarisuus parametrien, satunnainen näytteenotto havaintoja, ehdollinen tarkoittaa yhtä kuin nolla, ilman multicollinearity, homoskedasticity virheitä), että OLS estimaattorit α ja β ovat Paras Lineaarinen Puolueeton Estimaattorit (SININEN) todellisia arvoja α ja β.,

Jos löysit tämän aiheen kiinnostavaksi ja haluat nähdä Pythonin kanssa käytännön sovelluksen siitä, mitä olet tähän mennessä lukenut, Voit lukea artikkelini täältä.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *