티스토리 뷰

1. Recap


1) Hythesis

H(x) = Wx+b
W : Weight
b : Bias

2) Cost function

cost(W,b) = 1/m ( (H(x)i^ -y(i^))^2
    predicting / true

3)Gradient descent algorigm

2. multi-variable 일경우


H(x1,x2,x3,xn) = w1x1 + w2x2 + w3x3 + wnxn .....+ b

cost값도 변수만 증가시켜주면  

Cost Function = cost(W,b) = 1/m ( (H(x1,x2,xn.....)i^ -y(i^))^2 

그런데, 이러한것들을 계속 처리하기위해서는 불편함이 있음.
어떻게 처리하면 될까? Matrix



이 식을 보게 되면 H(x) = XW 가 되는 과정을 볼 수 있음.


X는 앞에 부분의 x1,x2,x3를 나타내고 W는 w1,w2,w3을 나타내는것을 알 수 있다.


matrix 내에 하나하나부분의 속성을 instance라고 한다.




W값을 결정할 경우 : X의 [5,3]의 뒤의 3을 가져오고, H(x)의 [5,1] 의 1을 가져온다. 따라서 W(x) =  의 값은 3,1로 도출되는 결과를 알 수 있음.

3. 출력은 꼭 하나여야만 할까? multi-output possible


output의 경우에도 여러가지 출력이 될 수 있음.
실제로 matrix를 상당히 많이 사용하게 된다. 

4. 결론



Next Logistic Regression (Classfication)! 










공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/11   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
글 보관함