안녕하세요 감자코딩에 감자개발자입니다. 제가 이번에는 CNN을 실습하다가 나오는 에러에 관련해서 포스팅 하려고 하는데요, 혹시 저처럼 프로젝트 진행중에 이러한 에러가 나오신분들있으면 이렇게 해결해보시면 좋을것 같습니다. [Error] ValueError: Variable W3 already exists, disallowed. Did you mean to set reuse=True or reuse=tf.AUTO_REUSE in VarScope? Originally defined at: 이러한 에러가 나올경우 텐서플로우 레이어이름 스코프 문제입니다. [Solution] 두 개의 TensorFlow 버전 중 어느 것도이 오류가 발생하지 않습니다. 코드 블록 3은 한 번만 실행해야합니다! 그래프 생성 블록을 다..
안녕하세요, 감자코딩에 감자개발자입니다. 오늘알아볼 내용은 파이썬에서 자신의 로컬에서 이미지 데이터 처리를 하기 위해서 어떤식으로 사용을 해야할지에 대해서 알아볼겁니다. 가장 유용한 모듈이라고 할 수 있는 glob, os 모듈에 대한 간단한 예제로 공부해보겠습니다. 현재 연구동아리에서 다른 CNN공부를 하는도중에 정리를 한번하고 가는것이 좋을것같다고 느껴서 포스팅합니다^^ 예제는 Kaggle에서의 많이 쓰이는 Dogs VS Cats의 예제를 사용하였습니다. 가장먼저 해야될일은 import을 사용해서 module들의 정보를 가져올 수 있어야 되겠지요? 그래서 import os, import glob을 추가시켜줍니다. #1 이미지 데이터 경로이용 방법 os모듈 사용 방법 import os import glo..
안녕하세요. 감자 코딩에 감자개발자 입니다. 이번에 알아볼 것들은 Pandas Package입니다. 1. Pandas란? 데이터 분석, 데이터 처리 등을 쉽게 하기 위해 만들어진 python package 보다 안정적으로 대용량 데이터들을 쉽게 처리할 수 있음. 대표적인 Pandas 자료구조 2가지 2. Series란? Series는 value와 index의 형태를 지니는 Pandas의 자료 구조이다.아래 그림과 같이 [1,3,5,7]의 값을 가지는 리스트를 Series로 생성하게 되면 (1,3,5,7)이라는 value와 (0,1,2,3)이라는 index가생성되어 Series라는 형태의 자료 구조를 만든다. 3. DataFrame이란?DataFrame은 여러 개의 Dictionary를 처리하는데 있어 S..
감자 코딩에 감자개발자입니다이번강의 에서는 머신러닝을 하기전에 가장먼저 파이썬 환경구축을 위한 아나콘다를 설치해볼것입니다. 저의 개발 환경은 MaxOS High Sierra 10.13.3 을 사용하고있기 때문에 맥환경에 아나콘다를 설치하겠습니다. 일단 들어가기 앞서, 아나콘다란 무엇일까요?간단하게 말해서 파이썬의 여러버전을 관리하기 편하게 하는 플랫폼이라 할수 있습니다. 머신러닝관련된 예를 들어) numpy 같은 모든 패키지들을 따로 설치할 필요없이 관리할 수 있습니다. 일일이 모든 pip 명령어로 패키지들을 설치할 필요가 없어지게 됩니다. 1. 아나콘다 홈페이지 들어가서 설치하기 https://www.anaconda.com/download/#macos 아나콘다를 설치하면 계속 다음을 눌러주시면 설치진행..
1. Soft_cross_entropy_with_logics 들어가기 앞서, 기본적인것들 재복습 자 이제, Animal Classfication(with softmax_cross_entropy_with_logics 을 사용하여 예제를 확인해볼 이다. Y의 값을 보았을때, 0~6범위를 나타내고 있으며, Y축을 나타내는값은 1개인것을 알 수 있다. 우리는 이제 placeholder를 사용하여서 shape 값을 정의할 것인데, 현재 y의 값을 나타내는것은 1개 이고, N개의 필드가 들어올 수 있음을 시사한다. 이것을 표현하면 tf.placeholder(tf.int32,[None,1])로 나타낼 수 있다. 이제 우리는 이것들의 데이터들을 one_hot을 사용하여 분류를 하게될 것이다. 근데 이때, one_hot..
1. Softmax function XW 의 식을 tf.matmul(X,W)+b 의 식으로 간단하게 Tensorflow로 나타낼 수 있고 , Softmax를 구하기 위해서는 tf.nn.softmax(tf.matmul(X,W)+b)로 나타낼 수 있다. 2. Cost FunctionCost값을 구할때는 reduce_mean을 사용하여 평균값을 구한후, 위의 식대로 간단하게 표현이 가능하다. 이렇게 구한 cost값을 사용하여 경사의 Minimize값을 구하게 될것인데, 이때 GradientDescentOptimizer를 사용하여 최소값을 구하게 될 수 있다. 여기서 Step의 하나하나의 a 값은 변동값을 업데이트를 하기위함이다. 3. 실습하기Data value is onehot expression. 설명 : ..
1. Where is Sigmoid? 여기서는 2.0 , 1.0 , 0.1 이런식으로 나누어져 있지만, sigmoid 함수를 써서 우리는 0~1까지의 범위내에서 값을 구하기를 원한다. 우리는 Ya , Yb, Yc의 값의 합이 1이 되기를 원한다. 이때 사용하는것 softmax. 2. What is Sigmoid ? Sigmoid는 0~1사이의 값으로 추정해주는데, 이때 이렇게 만들어 주는것이 Softmax classfier이다. Softmax를 사용하면 값들의 합이 = 1 이 되도록 하고, 이때 A라는 결과를 얻었을 경우 1.0 의 값이 주어지고 나머지 경우에는 0.0 이라는값을 주어지게 하는 방법은 "One hot Encoding"방식이다. 3. One Hot Encoding방식 여기까지 예측하는값을 ..
1.Logistic Regression Logistic Regression 의 기본 개념 => 위의 그림 설명 A , B가 있다고 하였을 경우 그 두개의 그래프에서 두개의 A,B를 구분하는 선을 찾는것이다. 2. Multinomial Classfication C or not / B or not / A or not 의 경우로 나누어서 생각 할 수 있다. X라는 값이 들어왔을때 A,B,C의 값을 판별해낼 수 있다는것을 알면 된다. classfication을 구현할 수 있는데, matrix형태로 바꿀 수 있는데, 이런형식은 너무 값이 많아지고 표현하기가 어려워 진다. 이것을 어떻게 처리 할 수 있을까?하나의 벡터로 처리하게 되면 한번에 계산이 가능하다. 3개의 A,b,C의 값들이 독립적으로 동작되게 된다. 여..
1. Tensorflow 로 Logistic Classfication의 구현하기(new) cost를 작게하는 W를 구하는것이 이번 장의 핵심!가장 작은 W를 구하는 방법은? 위의 2차 함수에서 어떤 주어진 점에서 기울기를 구해서 기울기의 반대방향으로 움직이면 된다. 여기서 a(알파)는 그만큼 움직이는 수 2. Training Data x_data는 2개 , y_data는 1개를 나타내는것을 볼 수 있는데, 여기서 tf.placeholder를 사용하여 float32타입으로 하나의 노드를 생성시키고, shape값을 지정하는데 이것은 N개의 개수로 놓을때, None의 속성값을 주고, 2개의 데이터를 나타내므로 shape = [None,2] 이런식으로 나타낼 수 있다. 3. Code 설명 1. x,y로 노드를 ..
1. Logistic Regression 의 Cost함수 설명 Cost 함수 복습 H(x)가 성립할때, Cost 함수의 식이 성립되는 구조를 볼 수 있다. 2차 함수 같은 그래프로 표현이 가능하다. 지금 까지 살펴본 Cost함수의 특징을 살펴 볼 것이다. 왼쪽의 함수는 H(x) 직선의 최소점을 나타낼 수 있다.살짝 오른쪽의 식은 울퉁불퉁한식의 형태로 나타낼 수 있다. 오른쪽의 함수는 Linear의 특징과 멀다. 울퉁불퉁한식은 Decent함수에서는 사용할 수 없다. 2. New cost function for logistic 설명 ) 1. 왼쪽 그래프 H(x) Value = 1(예측하였을 경우) -> Cost(1) = 0 최소가 되는점value = 0(예측하지 못하였을 경우) -> cost => 무한대에 ..
1. Logic Classfication Algorigm 특징1) 정확도가 상당히 높으므로 Nerural Network에 매우 중요한 Component2) 학습을 한다는것은 Data를 최소화 하여 Cost에 Weight를 최소화 한다는것이다.3) 2차원 그래프에서 U자 그래프가 나타나는것은 그래프에 가장 가까이 분포 되어있는것을 나타낸다. 이점을 따라서 내려가다보면 가장 최솟값(최소점)을 나타낼 수 있다. 4) Cost의 값을 미분한 값은 그 그래프의 기울기를 나타낸다. 2. Regression VS Classfication 1)regression 은 숫자 예측 2)Classfication 는 binary - 둘중 하나의 카테고리를 고른다Ex) SPAM Detection : SPAM or HAMFaceb..
1. Loading data from file 1)이번 강좌에서는 여러가지 파일에 있는 데이터들을 사용하여 활용하는 방법에 대해 알아 볼 것입니다.data-01.csv 파일을 이용할 것 이므로, data-01.csv파일을 준비합니다.(data file) * data-01.csv File 73 80 75 152 93 88 93 185 89 91 90 180 96 98 100 196 73 66 70 142 53 46 55 101 69 74 77 149 47 56 60 115 87 79 90 175 79 70 88 164 69 70 73 141 70 65 74 141 93 95 91 184 79 80 73 152 70 73 78 148 93 89 96 192 78 75 68 147 81 90 93 183 88..
1. Hypothesis None using matrix -1 import tensorflow as tftf.set_random_seed(777) # for reproducibility x1_data = [73., 93., 89., 96., 73.]x2_data = [80., 88., 91., 98., 66.]x3_data = [75., 93., 90., 100., 70.] y_data = [152., 185., 180., 196., 142.] # placeholders for a tensor that will be always fed.x1 = tf.placeholder(tf.float32)x2 = tf.placeholder(tf.float32)x3 = tf.placeholder(tf.float32) Y..
1. Recap 1) Hythesis H(x) = Wx+bW : Weightb : Bias 2) Cost function cost(W,b) = 1/m (∑ (H(x)i^ -y(i^))^2 predicting / true 3)Gradient descent algorigm 2. multi-variable 일경우 H(x1,x2,x3,xn) = w1x1 + w2x2 + w3x3 + wnxn .....+ b cost값도 변수만 증가시켜주면 Cost Function = cost(W,b) = 1/m (∑ (H(x1,x2,xn.....)i^ -y(i^))^2 그런데, 이러한것들을 계속 처리하기위해서는 불편함이 있음.어떻게 처리하면 될까? Matrix 이 식을 보게 되면 H(x) = XW 가 되는 과정을 볼 수 있음. ..
1. hypothesis 요약 cost가 최적화 된다는것은 최저가 되는 지점 Cost Function 을 간단히 요약하면 이렇게 표현이 가능하다. 2.Cost Minimizing Structure W.Assgin 함수를 통해서 Assgin할수 있다. 이것의 update에 할당해서 실행을 시키게 된다면,일련의 동작들이 수행되게 된다. 3. matplotlib 설치하기실습에 앞서 matplotlib 를 사용할것인데, 이것은 시각화 라이브러리라고 생각하면 편하다. 실습에서 사용할것이므로 (tensorflow) kgh-2:tensorflow kgh$ pip install matplotlib 4. 실습 Cost Minimizing -1 이제 이것을 사용하여 그래프를 그려보자# Lab 3 Minimizing Cos..
- Total
- Today
- Yesterday
- programming
- 코드엔진
- 텐서플로우
- Spring
- Android
- 감자코딩
- C언어
- 개발하는 관광이
- 학교
- MVC
- 안드로이드
- 알고리즘
- Algorigm
- db
- 초보자를 위한 C언어 300제
- 리버싱
- 머신러닝
- C langauge
- 복습
- 프로그래밍
- 백준
- TensorFlow
- node
- BFS
- 스프링
- node.js
- 백준알고리즘
- Controller
- 노드
- 감자개발자
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |