티스토리 뷰
1. what cost look like?
W=2 의 값일때 cost(W)의 값은 4.67로 동일하다
Y축 : Cost X축 : W로 두었을 때, minimize 시킬 수 있어야한다.
2. Gradient descent algorigm
(1) minimize cost function
(2) Gradient descent is used minimization problems
(3) for a given cost function
3. how it works?
gradient descent the lowest point부분을 찾는다.
(경사가 있는 그래프의 minimize)
경사를 어떻게 구할 수 있을까? 미분을 사용한다.
미분을 사용한다는것은 ? 그 그래프의 기울기를 구한다고 생각하면 쉽다.
Ex)미분의 예제
Cost Function이 최소화 된것을 확인할 수 있음.
4. Convex Function
도착지점이 우리가 원하는 지점을 구할 수 있고, 항상 우리가 원하는 값을 구할 수 있다.
ConvexFunction을 확인만하면, Gradient Algorigm을 사용 할 수 있다.
'AI' 카테고리의 다른 글
[머신러닝-Tensorflow] Lec-06 multi-variable linear regression (0) | 2018.03.11 |
---|---|
[머신러닝-Tensorflow] Lec-05 Cost Minimize 실습 (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-03 Linear Regression Implementation (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-02 Linear Regression (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-01-1 Tensorflow 시작하기 (0) | 2018.03.11 |
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- Spring
- db
- node
- Algorigm
- 노드
- C언어
- 코드엔진
- 복습
- 학교
- 안드로이드
- 텐서플로우
- MVC
- C langauge
- 백준
- Android
- 머신러닝
- 감자개발자
- Controller
- 리버싱
- 초보자를 위한 C언어 300제
- programming
- TensorFlow
- 감자코딩
- BFS
- node.js
- 백준알고리즘
- 프로그래밍
- 개발하는 관광이
- 알고리즘
- 스프링
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
글 보관함