인공지능
[모두의 딥러닝] lec 04. multi-variable linear regression
Linear Regression에 필요한 3가지
1) Hypothesis
- W: Weight
- b: bias
- 이 두가지를 학습한다.
2) Cost(Loss) function
3) Gradient descent algorithm
입력이 여러 개일때 Hypothesis
입력이 여러 개일때 Cost function
- Cost func의 핵심: 예측한 값과 실제 값의 차이를 구하는 것
입력 값이 n개로 무수히 많아졌을 때? : Matrix 이용!
Hypothesis using Matrix
- 인스턴스의 숫자대로 matrix를 줄 수 있음. W는 변함없음.
장점) 인스턴스 수가 많을 때 각각의 가설을 계산할 필요 없이, 한꺼번에 계산 가능
X [ #instance, #variable] x W [#variable, #H(X)instance] = [#H(X)instance, #Yvariable]
총정리
- Theory
- TensorFlow (실제 적용)
X를 앞에 둘 경우 matrix로 빠르게 계산 가능
==> 두가지가 거의 동일하다.
'인공지능' 카테고리의 다른 글
[모두의 딥러닝] lab 04-2. Loading Data from File (0) | 2019.04.06 |
---|---|
[모두의 딥러닝] lab 04-1. multi-variable linear regression을 TensorFlow에서 구현하기 (0) | 2019.04.05 |
[모두의 딥러닝] lab 03. Minimizing Cost (0) | 2019.04.03 |
[모두의 딥러닝] lec 03. Linear Regression의 cost 최소화 알고리즘의 원리 설명 (0) | 2019.04.03 |
[모두의 딥러닝] lab 02. Linear Regression (0) | 2019.04.03 |
댓글