티스토리 뷰
1. what cost look like?
W=2 의 값일때 cost(W)의 값은 4.67로 동일하다
Y축 : Cost X축 : W로 두었을 때, minimize 시킬 수 있어야한다.
2. Gradient descent algorigm
(1) minimize cost function
(2) Gradient descent is used minimization problems
(3) for a given cost function
3. how it works?
gradient descent the lowest point부분을 찾는다.
(경사가 있는 그래프의 minimize)
경사를 어떻게 구할 수 있을까? 미분을 사용한다.
미분을 사용한다는것은 ? 그 그래프의 기울기를 구한다고 생각하면 쉽다.
Ex)미분의 예제
Cost Function이 최소화 된것을 확인할 수 있음.
4. Convex Function
도착지점이 우리가 원하는 지점을 구할 수 있고, 항상 우리가 원하는 값을 구할 수 있다.
ConvexFunction을 확인만하면, Gradient Algorigm을 사용 할 수 있다.
'AI' 카테고리의 다른 글
[머신러닝-Tensorflow] Lec-06 multi-variable linear regression (0) | 2018.03.11 |
---|---|
[머신러닝-Tensorflow] Lec-05 Cost Minimize 실습 (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-03 Linear Regression Implementation (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-02 Linear Regression (0) | 2018.03.11 |
[머신러닝-Tensorflow] Lec-01-1 Tensorflow 시작하기 (0) | 2018.03.11 |
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 스프링
- 백준알고리즘
- db
- 안드로이드
- node.js
- Spring
- node
- Algorigm
- 개발하는 관광이
- 텐서플로우
- 리버싱
- 감자코딩
- 초보자를 위한 C언어 300제
- 머신러닝
- BFS
- 프로그래밍
- 백준
- C langauge
- 감자개발자
- MVC
- Controller
- TensorFlow
- 학교
- programming
- 노드
- Android
- 복습
- 코드엔진
- C언어
- 알고리즘
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함