본문 바로가기

도서,강의 요약/모두를 위한 머신러닝

ML lec 04 - multi-variable linear regression

해당 자료는 "모두를 위한 머신러닝/딥러닝 강의"를 보고 개인적으로 정리한 내용입니다.

http://hunkim.github.io/ml/

 

모두를 위한 머신러닝/딥러닝 강의

 

hunkim.github.io

 

복습

  • Linear regression을 위해 필요한 3가지
    • 가설
      • W,b를 학습해서 구해야 함
    • cost function
      • W,b에 따라 cost가 달라진다
    • Gradient descent algorithm
      • cost가 최적화 되는 w,b를 찾는 알고리즘

 

x가 3개인 경우의 가설과 Cost Function

  • 가설
  • cost function
  • 만약 x가 N개 라면
      • 방정식이 복잡해짐

 

가설을 Matrix를 이용하여 간단하게 표현

 

Matrix를 쓸 때는 X를 W앞에 적어주고, 대문자로 표현

 

Matrix 곱셈

  • 요약
    • 변수의 개수 : X변수에서 열로 나열
    • 인스턴스 : X변수에서 행으로 나열
    • X의 크기 : [A, B] 로 표기
      • A바이 B로 부름
      • A의 인스턴스, B의 개수
    • W의 크기 : [C, D]로 표기
      • C바이 D로 부름
      • C의 인스턴스, D의 개수
      • W의 인스턴스는 X의 변수개수와 같아야 함(B = C)
    • 곱셉 결과: [B, D]로 표기
      • B 바이 D로 부름
      • B의 인스턴스, D의 개수
      • X의 변수개수, W의 변수개수로 이루어짐
    • 예) X가 1개의 인스턴스와 3개의 변수를 갖는 경우
        • X의 크기는 [1 , 3] (1바이 3), W의 크기는 [3 , 1](3바이 1)
    • 예) X가 5개의 인스턴스와 3개의 변수를 갖는 경우
        • X의 크기는 [5, 3](5바이 3), W의 크기는 [3, 1](3바이 1)
    • 문제
      • W의 크기는?
          •  => [3, 2] (3 바이 2)