본문 바로가기
ETC

[머신러닝 앤드류응] (Week3) 1. Classification and Representation (2) 가설함수 설명

by bigpicture 2021. 6. 1.
반응형

앤드류 응 교수님의 코세라 머신러닝 강의를 요약하는 글입니다. Week3 의 상세 목차는 아래와 같습니다.

Week3 목차

1. Classification and Representation (분류와 설명?)
2. Logistic Regression Model (로지스틱 회귀 모델)
3. Multiclass Classification (다항 분류)
4. Solving the Problem of Overfitting (과적합 문제 해결)

 

이번 글은 Week3의 1강인 Classification and Representation (분류와 설명?) 요약입니다.


1. Classification and Representation

(1) Classification
(2) Hypothesis Representation
(3) Decision Boundary

(2) Hypothesis Representation (가설 설명)

 

회귀분석에서 사용한 가설함수는 아래와 같습니다. 

 

$h_{\theta}=\theta_{0}+\theta_{1}x_{1}+\theta_{2}x_{2}+...+\theta_{n}x_{n}$

 

벡터곱으로 표현하면 아래와 같습니다. 디폴트를 열벡터로 놓았습니다. 

 

$h_{\theta}=\theta^{T}x$

 

이 가설함수를 0~1 사이 값만 갖도록 하고 싶었습니다. 시그모이드 함수를 사용하여 구현하였습니다.

 

 

가설함수에 시그모이드 함수를 씌우면 0과1 사이값만 갖습니다.

 

이제 가설함수는 아래와 같이 정의됩니다. 

 

$h_{\theta}(x)=\frac{1}{1+e^{-\theta^{T}x}}$

 

함수 값이 0~1사이를 갖습니다. 앤드류응은 이 함수값을 확률로 해석하겠다고 합니다.

 

예를들어 종양을 판단하는 분류에서, 1이면 악성, 0이면 양성으로 놓는다고 합시다. 이때 함수값이 0.7이 나왔다면 악성일 확률이 70%인 것으로 해석하자는 겁니다.

 

 

아래와 같이 조건부확률로 표현하였습니다. 

 

$h_{\theta}(x)=P(y=0|x;\theta)$

 

"정해진 $\theta$ 에서 사건 x가 발생하였을 때 y가 0 일 확률" 입니다. 

반응형

댓글