안녕하세요. 감자 코딩에 감자개발자 입니다. 이번에 알아볼 것들은 Pandas Package입니다. 1. Pandas란? 데이터 분석, 데이터 처리 등을 쉽게 하기 위해 만들어진 python package 보다 안정적으로 대용량 데이터들을 쉽게 처리할 수 있음. 대표적인 Pandas 자료구조 2가지 2. Series란? Series는 value와 index의 형태를 지니는 Pandas의 자료 구조이다.아래 그림과 같이 [1,3,5,7]의 값을 가지는 리스트를 Series로 생성하게 되면 (1,3,5,7)이라는 value와 (0,1,2,3)이라는 index가생성되어 Series라는 형태의 자료 구조를 만든다. 3. DataFrame이란?DataFrame은 여러 개의 Dictionary를 처리하는데 있어 S..
1. Soft_cross_entropy_with_logics 들어가기 앞서, 기본적인것들 재복습 자 이제, Animal Classfication(with softmax_cross_entropy_with_logics 을 사용하여 예제를 확인해볼 이다. Y의 값을 보았을때, 0~6범위를 나타내고 있으며, Y축을 나타내는값은 1개인것을 알 수 있다. 우리는 이제 placeholder를 사용하여서 shape 값을 정의할 것인데, 현재 y의 값을 나타내는것은 1개 이고, N개의 필드가 들어올 수 있음을 시사한다. 이것을 표현하면 tf.placeholder(tf.int32,[None,1])로 나타낼 수 있다. 이제 우리는 이것들의 데이터들을 one_hot을 사용하여 분류를 하게될 것이다. 근데 이때, one_hot..
1. Softmax function XW 의 식을 tf.matmul(X,W)+b 의 식으로 간단하게 Tensorflow로 나타낼 수 있고 , Softmax를 구하기 위해서는 tf.nn.softmax(tf.matmul(X,W)+b)로 나타낼 수 있다. 2. Cost FunctionCost값을 구할때는 reduce_mean을 사용하여 평균값을 구한후, 위의 식대로 간단하게 표현이 가능하다. 이렇게 구한 cost값을 사용하여 경사의 Minimize값을 구하게 될것인데, 이때 GradientDescentOptimizer를 사용하여 최소값을 구하게 될 수 있다. 여기서 Step의 하나하나의 a 값은 변동값을 업데이트를 하기위함이다. 3. 실습하기Data value is onehot expression. 설명 : ..
1. Where is Sigmoid? 여기서는 2.0 , 1.0 , 0.1 이런식으로 나누어져 있지만, sigmoid 함수를 써서 우리는 0~1까지의 범위내에서 값을 구하기를 원한다. 우리는 Ya , Yb, Yc의 값의 합이 1이 되기를 원한다. 이때 사용하는것 softmax. 2. What is Sigmoid ? Sigmoid는 0~1사이의 값으로 추정해주는데, 이때 이렇게 만들어 주는것이 Softmax classfier이다. Softmax를 사용하면 값들의 합이 = 1 이 되도록 하고, 이때 A라는 결과를 얻었을 경우 1.0 의 값이 주어지고 나머지 경우에는 0.0 이라는값을 주어지게 하는 방법은 "One hot Encoding"방식이다. 3. One Hot Encoding방식 여기까지 예측하는값을 ..
1.Logistic Regression Logistic Regression 의 기본 개념 => 위의 그림 설명 A , B가 있다고 하였을 경우 그 두개의 그래프에서 두개의 A,B를 구분하는 선을 찾는것이다. 2. Multinomial Classfication C or not / B or not / A or not 의 경우로 나누어서 생각 할 수 있다. X라는 값이 들어왔을때 A,B,C의 값을 판별해낼 수 있다는것을 알면 된다. classfication을 구현할 수 있는데, matrix형태로 바꿀 수 있는데, 이런형식은 너무 값이 많아지고 표현하기가 어려워 진다. 이것을 어떻게 처리 할 수 있을까?하나의 벡터로 처리하게 되면 한번에 계산이 가능하다. 3개의 A,b,C의 값들이 독립적으로 동작되게 된다. 여..
1. Tensorflow 로 Logistic Classfication의 구현하기(new) cost를 작게하는 W를 구하는것이 이번 장의 핵심!가장 작은 W를 구하는 방법은? 위의 2차 함수에서 어떤 주어진 점에서 기울기를 구해서 기울기의 반대방향으로 움직이면 된다. 여기서 a(알파)는 그만큼 움직이는 수 2. Training Data x_data는 2개 , y_data는 1개를 나타내는것을 볼 수 있는데, 여기서 tf.placeholder를 사용하여 float32타입으로 하나의 노드를 생성시키고, shape값을 지정하는데 이것은 N개의 개수로 놓을때, None의 속성값을 주고, 2개의 데이터를 나타내므로 shape = [None,2] 이런식으로 나타낼 수 있다. 3. Code 설명 1. x,y로 노드를 ..
1. Logistic Regression 의 Cost함수 설명 Cost 함수 복습 H(x)가 성립할때, Cost 함수의 식이 성립되는 구조를 볼 수 있다. 2차 함수 같은 그래프로 표현이 가능하다. 지금 까지 살펴본 Cost함수의 특징을 살펴 볼 것이다. 왼쪽의 함수는 H(x) 직선의 최소점을 나타낼 수 있다.살짝 오른쪽의 식은 울퉁불퉁한식의 형태로 나타낼 수 있다. 오른쪽의 함수는 Linear의 특징과 멀다. 울퉁불퉁한식은 Decent함수에서는 사용할 수 없다. 2. New cost function for logistic 설명 ) 1. 왼쪽 그래프 H(x) Value = 1(예측하였을 경우) -> Cost(1) = 0 최소가 되는점value = 0(예측하지 못하였을 경우) -> cost => 무한대에 ..
1. Logic Classfication Algorigm 특징1) 정확도가 상당히 높으므로 Nerural Network에 매우 중요한 Component2) 학습을 한다는것은 Data를 최소화 하여 Cost에 Weight를 최소화 한다는것이다.3) 2차원 그래프에서 U자 그래프가 나타나는것은 그래프에 가장 가까이 분포 되어있는것을 나타낸다. 이점을 따라서 내려가다보면 가장 최솟값(최소점)을 나타낼 수 있다. 4) Cost의 값을 미분한 값은 그 그래프의 기울기를 나타낸다. 2. Regression VS Classfication 1)regression 은 숫자 예측 2)Classfication 는 binary - 둘중 하나의 카테고리를 고른다Ex) SPAM Detection : SPAM or HAMFaceb..
1. Loading data from file 1)이번 강좌에서는 여러가지 파일에 있는 데이터들을 사용하여 활용하는 방법에 대해 알아 볼 것입니다.data-01.csv 파일을 이용할 것 이므로, data-01.csv파일을 준비합니다.(data file) * data-01.csv File 73 80 75 152 93 88 93 185 89 91 90 180 96 98 100 196 73 66 70 142 53 46 55 101 69 74 77 149 47 56 60 115 87 79 90 175 79 70 88 164 69 70 73 141 70 65 74 141 93 95 91 184 79 80 73 152 70 73 78 148 93 89 96 192 78 75 68 147 81 90 93 183 88..
1. Hypothesis None using matrix -1 import tensorflow as tftf.set_random_seed(777) # for reproducibility x1_data = [73., 93., 89., 96., 73.]x2_data = [80., 88., 91., 98., 66.]x3_data = [75., 93., 90., 100., 70.] y_data = [152., 185., 180., 196., 142.] # placeholders for a tensor that will be always fed.x1 = tf.placeholder(tf.float32)x2 = tf.placeholder(tf.float32)x3 = tf.placeholder(tf.float32) Y..
1. Recap 1) Hythesis H(x) = Wx+bW : Weightb : Bias 2) Cost function cost(W,b) = 1/m (∑ (H(x)i^ -y(i^))^2 predicting / true 3)Gradient descent algorigm 2. multi-variable 일경우 H(x1,x2,x3,xn) = w1x1 + w2x2 + w3x3 + wnxn .....+ b cost값도 변수만 증가시켜주면 Cost Function = cost(W,b) = 1/m (∑ (H(x1,x2,xn.....)i^ -y(i^))^2 그런데, 이러한것들을 계속 처리하기위해서는 불편함이 있음.어떻게 처리하면 될까? Matrix 이 식을 보게 되면 H(x) = XW 가 되는 과정을 볼 수 있음. ..
1. hypothesis 요약 cost가 최적화 된다는것은 최저가 되는 지점 Cost Function 을 간단히 요약하면 이렇게 표현이 가능하다. 2.Cost Minimizing Structure W.Assgin 함수를 통해서 Assgin할수 있다. 이것의 update에 할당해서 실행을 시키게 된다면,일련의 동작들이 수행되게 된다. 3. matplotlib 설치하기실습에 앞서 matplotlib 를 사용할것인데, 이것은 시각화 라이브러리라고 생각하면 편하다. 실습에서 사용할것이므로 (tensorflow) kgh-2:tensorflow kgh$ pip install matplotlib 4. 실습 Cost Minimizing -1 이제 이것을 사용하여 그래프를 그려보자# Lab 3 Minimizing Cos..
1. what cost look like? W=2 의 값일때 cost(W)의 값은 4.67로 동일하다 Y축 : Cost X축 : W로 두었을 때, minimize 시킬 수 있어야한다. 2. Gradient descent algorigm (1) minimize cost function (2) Gradient descent is used minimization problems (3) for a given cost function 3. how it works?gradient descent the lowest point부분을 찾는다.(경사가 있는 그래프의 minimize) 경사를 어떻게 구할 수 있을까? 미분을 사용한다.미분을 사용한다는것은 ? 그 그래프의 기울기를 구한다고 생각하면 쉽다. Ex)미분의 예제 C..
1. Hypothesis and cost functioncostfunction의 기본 원리 및 구조 2. 이제 tensorflow 실습-1 import tensorflow as tftf.set_random_seed(777) # for reproducibility # X and Y data 학습데이터 X,Yx_train = [1, 2, 3]y_train = [1, 2, 3] # Try to find values for W and b to compute y_data = x_data * W + b# We know that W should be 1 and b should be 0# But let TensorFlow figure it out Variable은 변수와 다른 개념인데, 텐서플로우가 자체적으로 변경시키..
1. Linear Regression Predicting exam score : regression supervised learning 을 통해 알아보자.supervised learning은 간단히 데이터를 가지고 학습을 시키는것이다. learning course : Train -> regression 간단히 말하면,데이터를 trainning 시켜놓은 후, 그 조건에 맞는 데이터에 대한 확률을 regression analysisX,Y의 표로 시행되고 있음을 알면된다. (1) Linear Regression이란?(hypothesis)데이터 분석에 있어서 하나의 가설 검증이 필요하다. 이 가설을 검증할때, Linear 한 모델이 우리 데이터에 맞을것이다. 라는의미 가설을 세우고, 가장 적합한 데이터를 결정하..
- Total
- Today
- Yesterday
- 텐서플로우
- TensorFlow
- C langauge
- db
- node.js
- 개발하는 관광이
- 초보자를 위한 C언어 300제
- 리버싱
- C언어
- MVC
- programming
- 머신러닝
- Android
- 감자개발자
- 노드
- 안드로이드
- 학교
- 백준알고리즘
- 스프링
- BFS
- 코드엔진
- 감자코딩
- Controller
- Algorigm
- 복습
- Spring
- 백준
- 프로그래밍
- node
- 알고리즘
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |