선형 회귀분석의 가족이 알고리즘에서는 감독 기계 학습은 작업(에 대해 더 배우려면 지도 학습할 수 있습 읽기 전에는 여기에서). 감독 된 ML 작업이 일반적으로 분류와 회귀로 나뉘어져 있음을 알면 후자의 범주에서 선형 회귀 알고리즘을 배치 할 수 있습니다., 그것이 다릅 분류 때문에 자연의 대상 변수:분류,대상 범주값(‘yes/no’,’빨강/파랑/녹색’,’스팸/스팸’…);다른 한편으로,회귀분석을 포함한 수치적,지속적인 값을 대상으로,따라서 알고리즘이 될 것입니다 물을 예측하기 위해 지속적인 숫자가 아닌 클래스 또는 카테고리입니다. 즉,상상을 예측하려는 집의 가격에 따라 일부 상대적인 특징:출력의 모델은 가격,따라서 지속적인 수입니다.,
회귀할 수 있는 작업으로 두 가지 주요 그룹으로 분할:그 사용하는 단 하나의 특징을 예측하고 그 사용하는 하나 이상의 기능에 대한 목적입니다. 예를 들어 주고,생각해 보자는 집 작업을 위한 경우 예측하려는 그 가격에 제곱 미터,당신은 떨어질 것으로 첫 번째 상황(하나의 특징);는 경우가 가격을 예측하는 기반으로 말하자면,그것의 제곱 미터의 위치와 거주 적의 주변 환경에,당신은 둘째로 떨어진 상황(다중 기능,이 경우 세).,
에서 첫 번째 시나리오 알고리즘을 가능성이 있을 채택이 될 수 있는 간단한 선형 회귀는 하나 우리는 것이 문서에 대해 이야기. 다른 측면에서,때마다 직면하고 있는 하나 이상의 기능을 설명할 수 있는 대상 변수를 가능성이 있는 사용 여러 개의 선형 회귀분석 등을 다룬다.,
간단한 선형 회귀분석 통계적 모델,에서 널리 사용되 ML 회귀 작업을 기반으로 아이디어에서는 두 변수 간의 관계 설명할 수 있는 수식은 다음과 같습니다.
어디 ei 는 오류 기간 및 α, β 는 진정한다(그러나 지켜지지 않은)매개변수의 회귀분석 등을 다룬다., 매개 변수 β 나타내의 변동 종속 변수 독립 변수는 단일의 변화:즉,내 매개 변수를 동일하 0.75 내 x1 증가,나의 종속변수에 의해 증가 0.75. 반면에 매개 변수 α 는 독립 변수가 0 과 같을 때 우리의 종속 변수의 값을 나타냅니다.,
의 시각화를 그래픽으로:
지금 아이디어의 간단한 선형 회귀 분석을 찾는 이들 매개변수 α 및 β 는 오류 기간은 최소화합니다. 더 정확한 모델을 최소화하 제곱 오류가:실제로,우리는 원하지 않는 우리의 긍정적인 오류 보정에 의해 부정적인 사람을,이후 그들은 똑같이 처벌에 대한 우리의 모델입니다.,
This procedure is called Ordinary Least Squared error — OLS.
Let’s demonstrate those optimization problems step by step.,r α:
한번 얻어진 값들의 α 및 β 을 최소화하고 제곱 오류를,우리 모델의 방정식처럼 보이는:
요약하면,당신은 고려할 수 있습니다 OLS 전략으로 얻 부터 귀하의 모델은’스트레이트 라인’는 가능한 한 가까운 데이터 포인트입니다., 도 들어가지만 최적화 전략에서 가장 인기있는 이런 종류의 작업 이후,출력의 회귀(는 계수)는 공평한 평가의 실제 값의 알파와 베타에 있습니다. 실제로 따르면,가우스-마르코프리에서 가정의 선형 회귀분석 모형(선형성에서 매개 변수가 임의 샘플링을 관찰,조건부 평균로,의 부재는 다중 공선성,homoskedasticity 의 오류),OLS 평 α 및 β 는 최고의 선형 공평한 평가(블루)의 부의 값 α 및 β.,
발견하는 경우 이 항목에서는 재미 있고 당신이보고 싶은 실제적인 응용 프로그램과 파이썬은 당신이 무엇을 읽고,지금까지 읽을 수 있습니다 내 문서 여기입니다.피>