인공지능

[모두의 딥러닝] Logistic Classification의 가설 함수 정의

여니두 2019. 4. 7.

Logistic Classification

- Classification 알고리즘 중 정확도가 높은 알고리즘

- 실제 문제에도 적용 가능

- neural network과 deep learning의 중요한 구성 요소

 

Linear Regression 복습

HCG

- Hypothesis

- Cost 함수

가설과 실제 값의 차이를 평균 낸 것

데이터를 이용하여 cost를 최소화하는 weight를 찾는 것.

 

- Gradient decent

경사 타고 내려가기 알고리즘

어떤 지점에서 시작하든 기울기를 본 후 한 발자국 움직여서 최저점을 찾을 수 있는 것.

기울기 = cost함수를 미분한 값

알파 값 = 한 번에 움직이는 step size = learninng rate

 

(Binary) Classification (중요)

- 이전까지는 숫자를 그냥 예측하는 것이었음.

- 둘 중 하나, 즉 정해진 카테고리 내에서 고르는 것

 

- Spam (Email) Detection: Spam(1) or Ham(0)?

- Facebook feed: show(1) or hide(0)?

친구들이 만들어낸 무수한 타임라인에서 내가 좋아요 누른 것을 학습하여 좋은 것들만 보여준다.

- Credit Card Fraudulent Transaction detection: legimate(0)/fraud(1)

분실된 신용카드

이전에 쓰던 소비패턴을 학습하여 가짜를 판별

 

- 머신러닝에서 많이 활용되는 분야.

 

--> 기계적인 학습을 위하여 0, 1로 encoding

 

- 사용 예시

1. Radiology

이미지를 보고 이것이 나쁜 tumor인지 좋은 것인지

2. Finance

이 주식을 살 것인지 팔 것인지 이전 시장 동향을 학습하여 판단

사람보다 더 잘하는 분야

 

- 예시

Pass(1)/Fail(0) based on study hours BY Linear Regression

 

이 모델의 문제점 1)

ex) 50시간을 공부하면 linear regression에서는 큰 값이 나올 것.

하지만 이 모델에서는 1(pass)의 값만 가질 것.

학습시키면 선이 기울어질 것인데, 0.5와 비교했을 때 합격/불합격 기준선이 달라질 것임.

 

이 모델의 문제점 2)

x가 엄청 큰 수라면 1을 훨씬 뛰어 넘는 값이 나올 것.

 

결론

Linear Regression이 간단하고 좋기는 하지만 0~1 사이의 값으로 함축할 수 있는 함수를 찾고 싶다!

 

 

sigmoid function = logistic function

: curved in two directions, like the letter "S" or the Greek sigma

이 함수는 값이 커져도 1로 수렴하고 값이 작아져도 0으로 수렴

 

z = wx

H(x) = g(z)

 

대입해보면

Logistic Hypothesis 가설 함수

 

 

 

댓글