해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다.
매트릭스를 이용해 N개의 값을 Classification
- 매트릭스를 각 각 곱하여 Y햇 3가지 값을 구할 수 있음
- classification는 0,1 2가지로 구분이 되어야 하지만, W와 X곱 연산은 여러가지 값이 발생
- 이를 0 ~ 1 사이의 값으로 변환해주기 위한 것이 시그모이드 함수
Softmax Classifier
Softmax Classifier를 통해 Y햇 값을 0~1사이의 값으로 변환 가능
변환된 값은 P라고 표현하고 합은 1이 됨. 즉 P는 확률로도 볼 수 있음
Cost function
- cross entropy 라고도 부름
- D(S,L) 함수는 L(0또는 1로 변환된 값) * logS(softmax를 통해 얻은 값(예측된 Y값)을 log) 한 값들의 합의 마이너스
- 즉, S와 L의 차이를 구해야 함
Cost Function의 상세 설명(위 함수가 어떻게 0,1값의 Cost를 구할 수 있는지)
- Cost함수의 목적은 실제값과 맞으면 Cost 값을 최대한 작게, 실제값과 틀리면 Cost값을 최대한 큰 값을 얻어야 함
실제의 값이 B인 경우
Logistic cost 와 Cross Entropy
- Logistic Classification에서 구한 방정식과 Cross Entopy는 같음
- 왜 같은지에 대해서는 추가 공부 필요
Cost Function의 최종 형태
- 각 Cost 값에 대한 평균
Cost Function의 최적화
- 동일하게 Gradient descent 알고리즘을 통해 가능
'도서,강의 요약 > 모두를 위한 머신러닝' 카테고리의 다른 글
ML lab 06-2: TensorFlow로 Fancy Softmax Classification의 구현하기 (0) | 2020.06.11 |
---|---|
ML lab 06-1: TensorFlow로 Softmax Classification의 구현하기 (0) | 2020.06.03 |
ML lec 6-1 - Softmax Regression: 기본 개념 소개 (0) | 2020.05.28 |
ML lab 05: TensorFlow로 Logistic Classification의 구현하기 (0) | 2020.05.28 |
ML lec 5-2 Logistic Regression의 cost 함수 설명 (0) | 2020.05.24 |