Root Mean Square Error (RMSE) är ett vanligt sätt att mäta felet hos en modell för att förutsäga kvantitativa data. Formellt definieras det enligt följande:
låt oss försöka utforska varför denna felmått är meningsfullt ur ett matematiskt perspektiv., Ignorera divisionen av n under kvadratroten, det första vi kan märka är en likhet med formeln för euklidiska avståndet mellan två vektorer i:
detta säger oss heuristiskt att RMSE kan ses som någon form av (normaliserad) avstånd mellan vektorn av förutspådda värden och vektorn av observerade värden.
men varför delar vi med n under kvadratroten här?, Om vi håller n(antalet observationer) fast, är allt det gör att skala om euklidiska avståndet med en faktor √(1/n). Det är lite knepigt att se varför det här är rätt sak att göra, så låt oss dyka in lite djupare.,
Föreställ dig att våra observerade värden bestäms genom att lägga till slumpmässiga ”fel” till var och en av de förutsagda värdena enligt följande:
dessa fel, tänkt som slumpmässiga variabler, kan ha Gaussisk fördelning med medelvärde μ och standardavvikelse σ, men någon annan fördelning med en kvadratisk integrerbar PDF (sannolikhetsdensitetsfunktion) skulle också fungera., Vi vill tänka på att vara en underliggande fysisk kvantitet, till exempel det exakta avståndet från mars till solen vid en viss tidpunkt. Vår observerade kvantitet y skulle då vara avståndet från Mars till solen när vi mäter det, med några fel som kommer från mis-kalibrering av våra teleskop och mätbrus från atmosfärisk störning.,
medelvärdet μ för fördelningen av våra fel skulle motsvara en ihållande bias som kommer från mis-kalibrering, medan standardavvikelsen σ skulle motsvara mängden mätbrus. Föreställ dig nu att vi vet medelvärdet μ av fördelningen för våra fel exakt och vill uppskatta standardavvikelsen σ., Vi kan se genom lite beräkning som:
här E är förväntan, och Var(…) är variansen. Vi kan ersätta genomsnittet av förväntningarna E på den tredje raden med E på den fjärde raden där ε är en variabel med samma fördelning som var och en av e: n, eftersom felen E är identiskt fördelade, och därmed har deras kvadrater alla samma förväntningar.
Kom ihåg att vi antog att vi redan visste μ exakt., Det vill säga den ihållande biasen i våra instrument är en känd bias, snarare än en okänd bias. Så vi kan lika gärna korrigera för denna bias direkt från fladdermusen genom att subtrahera μ från alla våra råa observationer. Det vill säga, vi kan lika gärna anta att våra fel redan distribueras med medelvärde μ = 0. Anslut detta till ekvationen ovan och ta kvadratroten på båda sidor ger sedan:
Lägg märke till vänster handsidan ser bekant ut!, Om vi tog bort förväntan E från insidan av kvadratroten, är det exakt vår formel för RMSE form innan. Central limit theorem berättar för oss att när n blir större ska variansen av kvantiteten σ (S. M.) 2 / n = σ (S. M.) 2 / n konvergera till noll. I själva verket en skarpare form av den centrala gränsen teorem berätta dess varians bör konvergera till 0 asymptotiskt som 1 / n. detta berättar att σ (Trip) 2 / n är en bra Estimator för e = σ2. Men då är RMSE en bra estimator för standardavvikelsen σ av fördelningen av våra fel!,
Vi bör också nu ha en förklaring till uppdelningen av n under kvadratroten i RMSE: det tillåter oss att uppskatta standardavvikelsen σ av felet för en typisk enskild observation snarare än någon form av”totalt fel”. Genom att dividera med n håller vi denna felmått konsekvent när vi flyttar från en liten samling observationer till en större samling (det blir bara mer exakt när vi ökar antalet observationer). För att uttrycka det på ett annat sätt är RMSE ett bra sätt att svara på frågan: ”hur långt ska vi förvänta oss att vår modell ska vara på nästa förutsägelse?,”
för att sammanfatta vår diskussion är RMSE en bra åtgärd att använda om vi vill uppskatta standardavvikelsen σ av ett typiskt observerat värde från vår modells förutsägelse, förutsatt att våra observerade data kan sönderdelas som: