해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다.
hunkim.github.io
복습
- Linear regression을 위해 필요한 3가지
- 가설
W,b를 학습해서 구해야 함
- cost function
W,b에 따라 cost가 달라진다
- Gradient descent algorithm
- cost가 최적화 되는 w,b를 찾는 알고리즘
- 가설
x가 3개인 경우의 가설과 Cost Function
- 가설
- cost function
- 만약 x가 N개 라면
- 방정식이 복잡해짐
가설을 Matrix를 이용하여 간단하게 표현
Matrix 곱셈
- 요약
- 변수의 개수 : X변수에서 열로 나열
- 인스턴스 : X변수에서 행으로 나열
- X의 크기 : [A, B] 로 표기
- A바이 B로 부름
- A의 인스턴스, B의 개수
- W의 크기 : [C, D]로 표기
- C바이 D로 부름
- C의 인스턴스, D의 개수
- W의 인스턴스는 X의 변수개수와 같아야 함(B = C)
- 곱셉 결과: [B, D]로 표기
- B 바이 D로 부름
- B의 인스턴스, D의 개수
- X의 변수개수, W의 변수개수로 이루어짐
- 예) X가 1개의 인스턴스와 3개의 변수를 갖는 경우
- X의 크기는 [1 , 3] (1바이 3), W의 크기는 [3 , 1](3바이 1)
- 예) X가 5개의 인스턴스와 3개의 변수를 갖는 경우
- X의 크기는 [5, 3](5바이 3), W의 크기는 [3, 1](3바이 1)
- 문제
- W의 크기는?
- => [3, 2] (3 바이 2)
- W의 크기는?
'도서,강의 요약 > 모두를 위한 머신러닝' 카테고리의 다른 글
ML lec 5-1: Logistic Classification의 가설 함수 정의 (0) | 2020.05.19 |
---|---|
ML lab 04: multi-variable linear regression을 TensorFlow에서 구현하기 (0) | 2020.05.12 |
ML lab 03 - Linear Regression 의 cost 최소화의 TensorFlow 구현 (0) | 2020.05.01 |
ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 (0) | 2020.04.25 |
ML lab 02 - TensorFlow로 간단한 linear regression을 구현 (0) | 2020.04.19 |