티스토리 뷰
Sung Kim 교수님의 모두를 위한 머신러닝/딥러닝을 정리한 것
Linear Regression
Linear Regression
- data의 분포를 분석하였을 때 선형그래프로 정의될 수 있는 문제
ex)
학생이 공부를 많이 할 수록 성적이 높아진다.
집의 크기가 클 수록 가격이 높아진다.
Hypothesis
- model을 수학적으로 표현한 것
- 선의 모양은 W와 b에 따라 결정된다.
- 어떤 선이 더 좋은 가설인지 찾아 낼 수 있어야 한다.
Cost Function(Loss Function)
- 가설과 실제 데이터가 얼마나 다른가를 나타내는 함수
- Hypothesis의 정확성을 판단하기 위해 사용
- 거리를 비교해서 가까우면 좋은 것
거리(차이) : H(x) - y
-> +가 될 수도 -가 될 수도 있기 때문에 좋지 않다.
Square Error Function
: (H(x) - y)^2
- 차이를 양수로 표현
- 차이가 클 때 penalty를 크게 준다.
Linear Regression의 목적
- cost를 minimize 하는 것!
- cost를 최소화하는 W와 b를 구하자!
'AI > Machine Learning' 카테고리의 다른 글
[정리]모두를 위한 딥러닝 06 - Softmax (0) | 2018.08.04 |
---|---|
[정리]모두를 위한 딥러닝 05 - Logistic (Regression) Classification (0) | 2018.08.03 |
[정리]모두를 위한 딥러닝 04 - Multivariable Linear Regression (0) | 2018.08.03 |
[정리]모두를 위한 딥러닝 03 - How to minimize cost (0) | 2018.08.03 |
[정리]모두를 위한 딥러닝 01 - Machine Learning Basics (0) | 2018.07.13 |
Comments