본문 바로가기

AI143

DL : tensorflow-gpu 에러 https://webnautes.tistory.com/1395 Tensorflow 에러 - ImportError: DLL load failed: 지정된 모듈을 찾을 수 없습니다 pip install tensorflow 명령을 사용하면 tensorflow 2.1이 설치되는데 tensorflow 모듈을 임포트하는 순간 다음과 같은 에러가 보일 수 있습니다. Nvidia를 사용하는 PC에서 문제가 발생하고.. 사용하지 않은 PC. webnautes.tistory.com Traceback (most recent call last): File "C:\Users\ADmin\anaconda3\envs\ml\lib\site-packages\tensorflow_core\python\pywrap_tensorflow.py".. 2020. 5. 11.
DL : 참고 github https://github.com/fmfn/BayesianOptimization fmfn/BayesianOptimization A Python implementation of global optimization with gaussian processes. - fmfn/BayesianOptimization github.com https://github.com/YeongHyeon/Super-Resolution_CNN YeongHyeon/Super-Resolution_CNN Implementation of 'Image Super-Resolution using Deep Convolutional Network' - YeongHyeon/Super-Resolution_CNN github.com https://gith.. 2020. 5. 11.
DL : NVDIA Driver Deep Learning OS : Linux OS 우선, 딥 러닝을 위해 Linux OS를 사용하는 것이 좋다 (Linux에는 드라이버를 하나만 선택할 수 있음). Game Ready Driver & Studio Driver 솔직하게 스튜디오 또는 게임 레디 드라이버를 사용하든 상관 없다. Game Ready Driver는 새로운 게임 릴리스 등을위한 패치로 더 자주 업데이트됩니다. 딥 러닝에는 필요하지 않습니다. Studio Driver는 그다지 많은 업데이트를 받지 않으므로 더 안정적입니다. 특히 생산적인 환경에서 기계를 사용하는 경우 Studio Driver를 사용하는 것이 좋습니다. http://blog.daum.net/geoscience/1418 GPU를 지원하는 텐서플로(TensorFlow) .. 2020. 5. 4.
ML : Scikit-learn : Parameter & Atrribute & Method 요즘 대학원에서 연구생활을 하다보니, 코딩을 공부할 기회가 많이 적어지긴 했다.... 그러면서 동시에 포스팅에 너무 뜸해지다가, 다행히 수업 중 신경망입문을 들으면서 sklearn에 대해서 다시 자세히 배우는 것 같아 다행이다. 까먹기 전에, 그리고 중간고사가 닥치기 전에 미리미리 해두기 위해 오늘 블로그 포스팅을 미리 해두려 한다. 다른 블로그 포스팅을 보더라도, scikit-learn, sklearn에서 생성자로 쓰이는 파라미터들에 대한 설명이 자세히 없는 것 같아 내가 미리 적어두어서 나중에 사용하고자 한다. Parameter Perceptron( penalty=None, alpha=0.0001, fit_intercept=True, max_iter=1000, tol=0.001, shuffle=Tru.. 2020. 4. 15.
ML/DL : tensorflow 2.00 버젼 설명 https://lv99.tistory.com/38 [TF 2.0] TensorFlow 2.0의 주요 기능 (TensorFlow와 Keras의 장점의 결합) 0. 서론 제가 생각할 때 TF 2.0은 custom을 하기에 좋은 TensorFlow의 장점과 쉽게 구현 및 연산이 가능한 Keras의 장점을 결합하고, 분산처리에 관한 것을 추가한 정도가 아닐까 합니다. 실제로 TensorFlow 1.10.. lv99.tistory.com 2020. 3. 23.
자연어처리 : Tagging Work : NER (Named Entity Recognition) 정의 개체명인식 (Named Entity Recognition)은 말 그대로 단어가 " 어떤 이름을 가진 개체로 인식 " 하는것을 말한다. 그 단어가 어떤 유형의 단어를 뜻하는지를 말한다. 개체명인식은 보통 텍스트의 전처리가 끝난 이후에 적용된다. NLTK를 이용한 개체명 인식(Named Entity Recognition using NTLK) NLTK에서는 개체명 인식기(NER chunker)를 지원하고 있다. from nltk import word_tokenize, pos_tag, ne_chunk sentence = "James is working at Disney in London" sentence=pos_tag(word_tokenize(sentence)) print(sentence) # 토큰화와 품.. 2020. 3. 23.
자연어처리 : Tagging Work 정의 태깅작업이란? 단어에 어떠한 종류의 단어인지, tagging을 하는 작업을 말한다. 개체명 인식기와 품사 태거를 만드는데, 이러한 두 작업의 공통점은 RNN의 다-대-다(Many-to-Many) 작업이면서 또한 앞, 뒤 시점의 입력을 모두 참고하는 양방향 RNN(Bidirectional RNN)을 사용한다는 점이다. 1. training data에 대한 이해 X와 y데이터의 쌍(pair)은 병렬 구조를 가진다는 특징을 가집니다. X와 y의 각 데이터의 길이는 같습니다. ['EU', 'rejects', 'German', 'call', 'to', 'boycott', 'British', 'lamb'] ['B-ORG', 'O', 'B-MISC', 'O', 'O', 'O', 'B-MISC', 'O'] 8 (.. 2020. 3. 23.
Math : Concave Function vs Convex Function 정의 Concave Concave는 함수 안에서 임의의 점으로 선을 그었을 때, 모든 값들이 선 위에 존재하는 것을 concave라고 한다. Convex Convex는 함수 안에서 임의의 점으로 선을 그었을 때, 모든 값들이 선 아래에 존재하는 것을 convex라고 한다. 응용 우리가 Machine Learning에서 Loss Function의 minimum을 잡기 위하여 우리는 제곱을 많이 한다. 따라서 Loss Function을 최소화 하는, 즉 loss function이 convex function이기에 우리는 convex function을 최소화하는 optimization을 연구하면 된다. 2020. 3. 19.
DL : VAE (Variational AutoEncoder) Supervised vs UnSupervised Supervised Unsupervised (x : data, y : label) -> data를 보고 labeling을 함. Just Data, X Classification, Regression, Object Detection, Semantic Segmentation, Image Captioning Clustering (K-mean), Dimension Reduction (PCA, 3차원 공간에 있는 data들을 성분분석을 통해 2차원 공간으로 내려서 봄.) Feature Learning (VAE, GAN : input data가 encoder NN을 통해 Feature Z라는 잠재변수를 만들고, Z를 이용해 다시 data를 만들어 처음 input da.. 2020. 3. 18.
DL : VAE Reference https://hugrypiggykim.com/2018/09/07/variational-autoencoder%EC%99%80-elboevidence-lower-bound/ Variational-AutoEncoder와 ELBO(Evidence Lower Bound) 안녕하세요. 첫번째 스터디를 위해 글을 올립니다. Variational Auto Encoder Auto-Encoding Variational Bayes, 2014 비록 오래된 논문이긴 하지만 많은 논문에서 VAE의 개념과 사용된 목적함수(Evidence Lower Bound)가 갖는 의미 등이 중요하다고 생각되어 공부하여 정리한 내용을 소개드리겠습니다… hugrypiggykim.com 제일 잘 설명 되있는 포스팅. https://ratsgo.g.. 2020. 3. 18.
DL : Entropy, Cross Entropy 정보량 위의 정의대로 한 사건에 대한 정보량은 (사건이 일어날 확률 * log(가능한 결과의 수) )를 의미한다. Entropy https://hyunw.kim/blog/2017/10/14/Entropy.html 초보를 위한 정보이론 안내서 - Entropy란 무엇일까 딥러닝을 공부하다 보면 KL-divergence, cross-entropy 등에서 entropy라는 용어를 자주 접하게 됩니다. 이번 글을 통해서 정보이론의 아버지라 불리는 Shannon이 주창한 기초 개념인 entropy를 정리해봅니다. hyunw.kim 아래 증명은 위에 블로그에 나와있다. 질문의 개수를 이용하는데 참고하자. 위의 정보량을 빌려쓰면, 해당 한 사건이 일어나게될 정보량을 우리는 흔히 entropy라고 한다. 사건 발생확률.. 2020. 3. 18.
자연어처리 : 절차적 단계가 뭘까? 1. Text 전처리 정규식 표현, stopwords 적용, nltk, 어간추출, 표제어 추출, 대소문자 변경 등등 여러가지 기법이 존재한다. 여기서 내가 이 단어를 어떻게 바꾸고, 없애고 할 것인지가 나중에 model의 performance에 영향을 줄 것 이다. 2. Sentence & Word 분류 2-1 count 기반의 기법 N-gram, BoW, DTM, TF-IDF 등등 여러가지 기법이 존재한다. 그리고 DTM을 기반으로 하는 cosine 유사도 및 유클리드 유서도, 잠재의미론적 추측법인 LSA가 존재한다. 2-2 예측 기반의 기법 Word2Vec : 앞뒤 단어들을 비교를 해 중심단어가 무엇이 올 것인지 or 중심단어를 입력해 주위 단어들이 어떤 단어들이 나올 것인지 예측하는 기법을 말한다... 2020. 3. 15.