티스토리 뷰
1. Recap
1) Hythesis
H(x) = Wx+b
W : Weight
b : Bias
2) Cost function
cost(W,b) = 1/m (∑ (H(x)i^ -y(i^))^2
predicting / true
3)Gradient descent algorigm
2. multi-variable 일경우
H(x1,x2,x3,xn) = w1x1 + w2x2 + w3x3 + wnxn .....+ b
cost값도 변수만 증가시켜주면
Cost Function = cost(W,b) = 1/m (∑ (H(x1,x2,xn.....)i^ -y(i^))^2
그런데, 이러한것들을 계속 처리하기위해서는 불편함이 있음.
어떻게 처리하면 될까? Matrix
이 식을 보게 되면 H(x) = XW 가 되는 과정을 볼 수 있음.
X는 앞에 부분의 x1,x2,x3를 나타내고 W는 w1,w2,w3을 나타내는것을 알 수 있다.
matrix 내에 하나하나부분의 속성을 instance라고 한다.
W값을 결정할 경우 : X의 [5,3]의 뒤의 3을 가져오고, H(x)의 [5,1] 의 1을 가져온다. 따라서 W(x) = 의 값은 3,1로 도출되는 결과를 알 수 있음.
3. 출력은 꼭 하나여야만 할까? multi-output possible
output의 경우에도 여러가지 출력이 될 수 있음.
실제로 matrix를 상당히 많이 사용하게 된다.
4. 결론
Next Logistic Regression (Classfication)!
'AI' 카테고리의 다른 글
[머신러닝-Tensorflow]Lec-08 TensorFlow로 파일에서 데이터 파일 읽기 (0) | 2018.03.11 |
---|---|
[머신러닝-Tensorflow]Lec-07 multi-variable linear regression을 TensorFlow에서 구현하기 (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-05 Cost Minimize 실습 (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-04 Linear Regression Cost 최소화 알고리즘 (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-03 Linear Regression Implementation (0) | 2018.03.11 |
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 머신러닝
- 감자코딩
- 안드로이드
- 복습
- 프로그래밍
- Android
- MVC
- 초보자를 위한 C언어 300제
- 코드엔진
- 학교
- db
- 리버싱
- Algorigm
- C언어
- 알고리즘
- Controller
- C langauge
- 감자개발자
- 개발하는 관광이
- 백준알고리즘
- 백준
- BFS
- TensorFlow
- Spring
- 스프링
- node
- 노드
- 텐서플로우
- programming
- node.js
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함