루트 평균 제곱 오차(Rmse)는 정량적 데이터를 예측하는 모델의 오차를 측정하는 표준 방법입니다. 그것은 공식적으로 정의는 다음과 같습니다:
의 탐구하려고 이를 측정의 오류에게 의미에서 수학적 관점입니다., 을 무시하고 나누 n 광장에서 루트,첫 번째 일을 우리는 알 수 있는 유사성에 대한 공식을 유클리드 사이의 거리는 두 가지에서 벡터 ℝⁿ:
이것은 우리에게 알려줍니다 스스로 하는 RMSE 로 생각할 수 있습니다 몇 가지 종류의(표준화) 사 벡터의 예측 값과 벡터의 관찰되는 값입니다.
그러나 왜 우리는 여기서 제곱근 아래에서 n 으로 나누고 있습니까?, 우리가 n(관측치 수)을 고정 된 상태로 유지한다면,그것이하는 모든 일은 유클리드 거리를√(1/n)의 계수로 재구성하는 것입니다. 왜 이것이 옳은 일인지를 알기가 조금 까다 롭기 때문에 조금 더 깊이 탐구 해 봅시다.,
상상하는 우리의 관찰된 값을 결정을 추가하여 임의의”오류”각각의 예측 값을 다음과 같다:
이러한 오류는,생각으로는 랜덤변수, 수도 가우시안 배포된 의미 μ 및 표준 편차 σ,하지만 다른 모든 배포로 스퀘어-통합 가능 PDF(확률 밀도 함수)도 작동합니다., 우리는 ŷᵢ 를 특정 시점의 화성에서 태양까지의 정확한 거리와 같은 근본적인 물리량으로 생각하고 싶습니다. 우리의 관찰 양 yᵢ 가 될 수 있는 거리에 화성에서 태양으로 우리는 그것을 측정,일부 오류가에서 나오는 잘못 calibration 우리의 망원경과 측정에서 소음이다.,
균 μ 의 유통이 우리의 오류에 해당하는 것이 지속적인 바이어스에서 나오는 잘못 교정,표준 편차 σ 에 해당한 양의 측정 소음. 이제 우리의 오류에 대한 분포의 평균 μ 를 정확히 알고 표준 편차 σ 를 추정하고 싶다고 상상해보십시오., 우리가 볼 수 있을 통해 조금의 계산:
여기에서 전자가 기대 고 Var(…)은 차이는 없습니다. 우리는 우리를 대체할 수 있는 평균의 기대 전자에서 세 번째 줄 E 에서 네 번째 라인 ε 변수와 같은 분포의 각 eᵢ 기 때문에 오류 eᵢ 은 동일하게 배포하고,따라서 그들의 사각형 모두 동일한 기대합니다.
우리가 이미 μ 를 정확히 알고 있다고 가정 한 것을 기억하십시오., 즉,우리 악기의 지속적인 편견은 알려지지 않은 편견보다는 알려진 편견입니다. 그래서 우리는 우리의 모든 원시 관측에서 μ 를 빼서 박쥐에서 바로이 편견을 바로 잡을 수 있습니다. 즉,우리의 오류가 이미 평균 μ=0 으로 분산되어 있다고 가정 할 수도 있습니다. 연결이 방정식으로 위의 제곱근을 취하고 양면 수확량:
통지 왼쪽에 보이는 익숙한!, 우리가 제곱근 내부에서 기대 E 를 제거했다면,그것은 정확히 전에 RMSE 양식에 대한 우리의 공식입니다. 중심 극한 정리고 우리에게 알려줍 n 져 더 큰 차량의 Σᵢ(ŷᵢ—yᵢ)2/n=Σᵢ(eᵢ)2/n 수렴해야 하니다. 에서 사실은 선명한 양식의 중심 극한 정리 우리에게 그것의 분산을 수렴해야 하 0 점근 다음과 같 1/n. 이것은 우리에게 알려줍니다 그 Σᵢ(ŷᵢ—yᵢ)2/n 좋은 평가를 위한 E=σ2. 그러나 rmse 는 우리의 오차 분포의 표준 편차 σ 에 대한 좋은 추정치입니다!,
우리는 또한 지금에 대한 설명 부문 n 광장에서 뿌리에서 RMSE:그것은 우리를 추정하는 표준 편차 σ 의 오류에 대한 일반적인 단 하나 관찰보다는 몇 가지 종류의 총”오류”입니다. 으로 나누어 n,우리는 이것을 계속 측정의 오류에 일관적으로 우리는 이동에서의 작은 컬렉션을 관찰하는 더 큰 컬렉션(이 더 정확한 것으로 우리의 수가 증가 관찰). 하는 문구를 다른 방법으로,RMSE 좋은 방법입니다 질문에 대답:”얼마나 멀리 떨어져야 우리가 기대하는 우리의 모델에는 다음 예측?,”
요약하면 우리의 토론,RMSE 은 측정할 수 있는 좋은 방법을 사용하고 싶다면 추정하는 표준 편차 σ 의 일반적인 관찰된 값에서 우리의 모형의 예측 가정,우리의 관찰할 수 있는 데이터의 분해도:
임의의 노이즈 여기에 아무것도 될 수 있는 우리의 모델은 수집하지 않습(예를들면,알 수 없는 변수에 영향을 줄 수 있는 관측 값)., 는 경우에는 소음이 작으로 추정에 의해 RMSE,즉 일반적으로 우리의 모델은 좋은 예측에서 우리의 관측 데이터,그리고 경 RMSE 은 큰,즉 일반적으로 우리의 모델은 실패하의 계정에 대한 중요한 기능은 기본이 우리의 데이터입니다.
RMSE 에서 데이터 과학:의 미묘한 차이를 사용하여 RMSE
에서 데이터 과학,RMSE 에는 두 배 목적:
- 역할을 휴리스틱에 대한 교육델
- 로 평가한 훈련한 모델에 대한 유용성/정확성
이것은 중요한 질문은 무엇을 의미한 RMSE 을”작은”?,
는 우리가 참고해야 먼저는”작은”에 따라 달라집니다 우리의 선택의 단위에서 특정 응용 프로그램 노력하고 있습니다. 100 인치는 건물 설계에서 큰 오류이지만 100 나노 미터는 그렇지 않습니다. 다른 한편으로,100 나노미터는 작은 오류가에서 제조 아이스 큐브 쟁반,하지만 아마도 큰에 오류가 날조하는 통합 회로입니다.
에 대한 교육이 모델,그것은 진짜로 중요하지 않 무엇을 우리는 단위 사용하기 때문에,우리는 케어에 대해 동안 훈련을 휴리스틱이 우리를 도와 줄이는 오류를 서로 반복합니다., 우리는 오류의 절대 크기가 아니라 한 단계에서 다음 단계로의 오류의 상대적 크기에만 관심이 있습니다.
만을 평가에서 훈련받는 모델에서 데이터 과학에 대한 유용성/정확도,우리가 할 케어에 대한 단위이기 때문에,우리는지 확인하기 위해 노력하고 우리보다 더 잘하고 있어요 마지막 때 우리를 알고 싶으면 우리의 모델은 실제로 도움을 해결하는 실제적인 문제입니다. 이 미묘 여기에는지 평가 RMSE 충분히 작은하지 않는 방법에 따라 달라집니다 정확한 우리는 필요 우리의 모델에 대한 우리의 주어진 응용 프로그램., 이 있을 수학 공식에 대한기 때문에,이에 따라 달라지는 것과 같은 인간의 의도를(“당신은 무엇을 할 예정이 모델?”),위험 회피(“이 모델이 나쁜 예측을했다면 얼마나 많은 해를 끼칠 것인가?”)등
외 단위,거기에 또 다른 고려 사항도:”작은”또한 필요할 측정 유형을 기준으 모델의 사용,수의 데이터 포인트,그리고 역사의 교육 모델을 통해 갔기 전에 당신은 그것을 계산한 정확성입니다., 처음에는 이것이 반 직관적으로 들릴지 모르지만,지나치게 맞추는 문제를 기억할 때가 아닙니다.
의 위험이 있을 통해 피팅할 때마다 매개변수의 수에 당신의 모델은 상대적으로 큰 수의 데이터 포인트니다. 는 경우,예를 들어,우리는 예측하기 위해 노력하고 하나는 진짜 양 y 의 기능으로 다른 진짜 양 x,와 우리의 관측(xᵢ,yᵢ)와 x₁<x₂<x₃…,일반적인 보간법론 우리에게 몇 가지 다항식 f(x)의 정도에서 가장 n+1f(xᵢ)=yᵢ for i=1,…,n., 이 경우 우리가 선택한 우리의 모델이 될 정도는 n+1 다항식,에 의해 조정 매개변수의 우리의 모형(다항식의 계수가),우리는 우리 것을 가져올 수 있 RMSE 모든 방법은 0 입니다. 이것은 우리의 y 값이 무엇인지에 관계없이 사실입니다. 이 경우에는 RMSE 지 정말 우리에게 말하고 아무것도의 정확성에 대한 우리의 근본적인 모델:우리를 보장할 수 있 매개 변수를 조정할을 얻을 RMSE=0 으로 측정되는 측정에서 기존의 데이터 포인트는지 여부에 관계없이 어떤 관계가 있는 사이에 두 개의 실제 수량다.,매개 변수의 수가 우리가 문제로 실행할 수있는 데이터 포인트의 수를 초과 할 때만이 아닙니다. 는 경우에도 우리가 없는 불합리하게 과도한 금액의 매개 변수는,이 될 수있는 일반적인 수학적 원리와 함께 온화한 배경을 가정하에 우리의 데이터 보장으로 우리는 확률이 높은 것으로 조정 매개변수에서 우리의 모델은,우리는 우리를 가져올 수 있습 RMSE 특정 임계 값 아래로. 만약 우리가 이런 상황에서,다음 RMSE 되는 아이 임계지 않을 수도 있 아무 말도 의미에 대해 우리의 모형의 예측력.,
우리가 통계 학자처럼 생각하고 싶다면 우리가 묻는 질문은”훈련 된 모델의 RMSE 가 작습니까?”그러나 오히려”확률은 무엇입니 RMSE 의 숙련된 모델 등과 같은 설정의 관찰을 것이 작은하여 임의의 기회가?”
이러한 종류의 질문에는 조금 복잡는(당신이 실제로 할 통계),그러나 희망이라는 그림을 얻는 이유 없이 소정값에 대한”충분히 작은 RMSE”,으로 쉽게 만드는 것이 우리의 삶입니다.피>