본문 바로가기

도서,강의 요약/모두를 위한 머신러닝

(19)
ML lec 5-2 Logistic Regression의 cost 함수 설명 해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다. http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io Linear regression의 Cost Function에 Logistic classification 적용 Linear regression Logistic classification 가설 cost function 형태 특징 - H(x)는 1차 방정식으로 Cost function에서 제곱하면 구부러진 선으로 나타남 - 어디서 시작해도 최소점으로 이동 가능 - 시그모이드 함수 형태가 전체 Cost function에 구간별로 계속적으로 나타남 - 경사하강법으로 시작되는 점에 따라 전체의 최저점(글로벌 미니멈)..
ML lec 5-1: Logistic Classification의 가설 함수 정의 해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다. http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io Logistic Classification Linear Regression은 숫자를 예측하지만, Logistic은 카테고리를 선택 특히 2개중 1개를 선택하는 것은 Binary Classification Binary Classification 은 카테고리를 0,1로 인코딩하여 사용 Linear Regression과의 차이 Binary Classification를 Linear Regression으로 접근하면 발생하는 문제점 문제점 1 1. 공부시간이 많으면 합격한다는 가정 Y축의 중간을 0.5라고 하면 해당..
ML lab 04: multi-variable linear regression을 TensorFlow에서 구현하기 해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다. http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 본 실습의 tensorflow는 1.x 버전입니다. x변수가 3개인 경우 구현 import tensorflow.compat.v1 as tf tf.disable_v2_behavior() #tensorflow v1호환 #x 변수 3개를 정의 x1_data = [73., 93., 89., 96., 73.] x2_data = [80., 88., 91., 98., 66.] x3_data = [75., 93., 90., 100., 70.] y_data = [152., 185., 180., 196., 142.] # f..
ML lec 04 - multi-variable linear regression 해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다. http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 복습 Linear regression을 위해 필요한 3가지 가설 cost function Gradient descent algorithm cost가 최적화 되는 w,b를 찾는 알고리즘 x가 3개인 경우의 가설과 Cost Function 가설 cost function 만약 x가 N개 라면 방정식이 복잡해짐 가설을 Matrix를 이용하여 간단하게 표현 Matrix 곱셈 요약 변수의 개수 : X변수에서 열로 나열 인스턴스 : X변수에서 행으로 나열 X의 크기 : [A, B] 로 표기 A바이 B로 부름 A의 인스..
ML lab 03 - Linear Regression 의 cost 최소화의 TensorFlow 구현 해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다. http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 본 실습의 tensorflow는 1.x 버전입니다. Linear Regression을 단순화한 가설 W와 cost(W)의 그래프 그려보기 import tensorflow.compat.v1 as tf tf.disable_v2_behavior() #tensorflow v1호환 import matplotlib.pyplot as plt #matplotlib 설치경로 : http://matplotlib.org/users/installing.html X = [1, 2, 3] Y = [1, 2, 3] W = tf.pl..
ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다. http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io Linear Regression의 가설을 기반한 모델 형태와 Cost, 그리고 목표 가설과 Cost(실제 데이터가 얼마나 차이나는가) 목표 Cost를 최소화하는 W,b의 값을 주어진 데이터를 통해 구한다 Cost를 최소화하는 방정식을 만들기 위한 사전준비 가설과 Cost를 계산하기 쉽게 변경 b를 0이라고 가정 의미가 크게 변경되지 않으므로 무관하고, 과정을 설명하기 위한 가설임 b를 0이라고 가정한 경우 직접 Cost 구해보기 x = 1,2,3 y = 1,2,3 W = 0 인 경우 Cost(W) = ⅓ ..
ML lab 02 - TensorFlow로 간단한 linear regression을 구현 해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다. http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 본 실습의 tensorflow는 1.x 버전입니다. 텐서플로우 메카니즘 1. graph 빌드 2. session을 만들고 graph run 3. 결과 리턴 graph 빌드 소스 코드 1(방정식 정의) (H(x) = Wx + b) # X and Y data x_train = [1, 2, 3] y_train = [1, 2, 3] W = tf.Variable(tf.random_normal([1]), name='weight') b = tf.Variable(tf.random_normal([1]), name='bia..
ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명 해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다. http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io Linear Regression 모델 생성의 접근 가설을 세움: 데이터는 Linear한 형태에 맞을 것이다 Linear : 일차의 선 Linear은 일반적으로 H(x) = Wx + b 방정식으로 표현 위 방정식으로 아래와 같은 일차선을 그을 수 있고, 선의 모양은 W,b에 의해 달라짐 아래의 일차선 중 어떤 방정식이 데이터에 가장 잘 맞는지 찾는 것이 학습의 목적 가장 좋은 방정식을 찾는 방법 어떤 선이 데이터에 가장 잘 맞는지 찾아야 함 (= 어떤 가설이 가장 잘 맞는지) (= 어떤 방정식이 가장 잘 맞..