해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다.
Logistic Regression의 개념
시그모이드 함수
- z가 작아질수록 Y가 0에 가까워지고, z가 커질수록 Y가 1에 가까워지는 형태의 함수
시그모이드 함수를 통해 예측값을 구하는 과정을 도식화
- S는 시그모이드 함수를 의미
- Y 바는 Y의 햇이라고 하고, 예측된 값을 의미
가설을 통해 찾으려는 것
- 학습을 통해 X와 ㅁ를 나누는 선을 찾는것
Multinomial classification 을 binary classification을 통해 접근
- Multinomial은 Y값의 분류가 여러개라는 의미
binary classification을 통해 A,B,C 3개의 카테고리를 구분
1. A or not, B or not , C or not 3개의 선으로 구분이 가능
2. 도식화하면
- 3개의 선을 구하는 각각의 가설을 세움
3. 도식화된 가설을 매트릭스 곱으로 표현하면
4. 3번의 각각의 매트릭스 곱은 아래처럼 표현이 가능
- 매트릭스 곱에 의해 가장 우측의 Y는 순서대로 A 가설의 예측값, B 가설의 예측값, C 가설의 예측값이 됨
'도서,강의 요약 > 모두를 위한 머신러닝' 카테고리의 다른 글
ML lab 06-1: TensorFlow로 Softmax Classification의 구현하기 (0) | 2020.06.03 |
---|---|
ML lec 6-2: Softmax classifier 의 cost함수 (0) | 2020.05.30 |
ML lab 05: TensorFlow로 Logistic Classification의 구현하기 (0) | 2020.05.28 |
ML lec 5-2 Logistic Regression의 cost 함수 설명 (0) | 2020.05.24 |
ML lec 5-1: Logistic Classification의 가설 함수 정의 (0) | 2020.05.19 |