본문 바로가기

전체 글346

Python으로 클라우드 시스템 구축 www.slideshare.net/yongho/2011-h3 2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요 파이썬으로 멀티코어, 멀티노드, 클라우드를 활용하는 방법에 대해 살펴봅니다. 파이썬으로 어떻게 하면 분산처리 병렬처리를 잘 할 수 있을까요? www.slideshare.net 2020. 10. 8.
Instance method vs Classmethod vs Staticmethod 하 이 친구... 진짜 이해하기 개 힘들었다. 근데 직접 내가 사용해보니까 이제 좀 알 것 같다. 일딘 method에 대해서 정의를 하고 가면 좋을 것 같다. Instance Method class Calc: def add(self, a ,b): return a + b cal = Calc() cal.add(1,2) # return 3 method란 class안에 속해 있는 function으로 생각하면 된다. method는 self라고 정의를 해줘야 클래스에서 객체를 생성하고, 객체가 이 method를 사용할 수 있다. self는 생성된 객체를 의미한다. 이 부분은 과감하게 생략하고 넘어간다. 만약 이 부분이 이해가 가지 않는다면, class에 대해서 좀 더 공부를 하고 오는 것이 좋다!! @classme.. 2020. 10. 8.
VScode 가독성 좋게 하는 방법 blog.naver.com/PostView.nhn?blogId=hadaboni80&logNo=221608367376&categoryNo=0&parentCategoryNo=0&viewDate=&currentPage=1&postListTopCurrentPage=1&from=postView [vscode] 작업 속도를 1.5배 향상시켜 줄 비주얼스튜디오코드 확장 기능들 오늘은 설치해두면 유용한 vscode 확장 기능들을 간단하게 몇 가지 소개할까 합니다.만약 gulp나 grunt, we... blog.naver.com 여기 참조하기 2020. 10. 6.
DQN (Deep Q-Networks) 지금까지 우리가 배웠던 내용을 간단하게 정리해보자! 우리는 지금까지 Model을 알고 있는 경우를 Dynamic Planning으로 해결했으며, Model을 모르는 경우는 한 episode가 끝난 이후에 Return Function을 계산하는 Monte Carlo Method 나 일정한 Term을 주고 한 episode에 대해서 Return Function을 계산하는 TD Method 방법이 존재했다. 또한 우리는 어떤 특정 state일 때, 가지는 누적 reward, Return들의 기댓값을 말하는 Value function을 찾는 것이 목적이다. 이 Value Function은 어떤 특정 state일 때, 특정 action 을 선택할 확률인 Policy, $\pi$와 특정 state에서 action을.. 2020. 10. 3.
Quantom Dot Synthesis 개요 Quantom Dot Synthesis Procedure 1 Procedure 2 30mg 순수한 selenium powder를 넣는다. 5ml 1-Octadecene 넣고, stirring bar에서 stirring 0.4ml Trioctylphosiphine 투명하기 전 까지 liquid 계속 strring 한다. (Trioctylephosiphine이 Selenium 과 만나서 Trioctylphosphine selenide) 투명해지면, 밀봉하고 식힌다 (위의 방법대로 진행한다면, 5번 실험이 가능하다.) 13mg Cadmium Oxide를 플라스크에 넣고 온도계를 넣는다. 0.6ml Oleic Acid를 넣고 10ml 1-octadecene을 넣는다. Cadmium Oxide가 다 녹기전까지 열.. 2020. 9. 28.
Off-Policy Control 1. 1/n 이 왜 있을까 --> 평균이라 2. 솔직히 뮤랑 파이랑 뭐가 다른지 모르겠다 3. 보통 optimal policy라고 하면 현재 policy보다 더 나은 value function을 가지는 policy를 말하는데, 이 때문에 주어진 policy에 대한 Q-value를 전부 더하는 것 대신에 Q-value 중에서 가장 큰 값을 얻을 수 있는 것을 취하는 것을 Q-learning 동작원리이다. model based 상태에서 policy가 존재하는 것을 monte carlo method라고 한다. model free 하다는 부분을 조금 헷갈렸는데, 이 부분은 셋다 모델을 모르는 건 동일한데, MCTS는 model의 전체적인 부분까지 다 보기 때문에, 나중에 value function을 값을 메기는.. 2020. 9. 24.
Ai : Search (Manual, Grid, Random) 우리들의 모든 ai 모델들은 data 기반으로 Model이 train되고 test가 이루어진다. 또한 data 기반으로 만들어지는 Model들은 여러 Hyperparameter를 가지게 된다. 그래서 인간들은 인간이 정해주어야하는 Hyperparameter 까지 MAX를 나타내는 search를 하도록 하고 싶었다. 실제로 현재 나와있는 Optimization 방법들이 이 3가지의 개념들을 응용한 최적화 기법이라고 생각하면 된다. 그래서 이번 포스팅에서는 여러 search 방법 중, Manual, Grid, Random 방법 3가지를 적고 이들의 목적, 개념, 장단점을 차례로 비교해 볼 생각이다. Manual Search 정의 우리가 직접 조절하면서 search하는 것을 Manual Search라고 한다... 2020. 9. 16.
NL : Ai.x 나중에 다시 정리 LM Pretraining LM은 문장들의 확률로 계산하는 모델을 말한다. NLP Task들이다. Task를 해결하기 위해 다음과 같이 이용한다. GPT2 -> Transformer이고 unsupervised Learning이다. Self-Attention (BERT) : order라는 context 기반으로 Masked-self-attention : Masked forward 방향으로 attention을 학습한다. 어떻게 하면 빠르고 안전하게 분산되어서 학습할 수 있을까? 가 집중했다. 1. corpus를 preprocessing 하지 않고, 2. 전체 epoch 3. fusing ??? 이해 안됨...찾아보기 이부분 KoBERT KoGPT --> github 에 있고 적용 바로 가능하다. 이미 pre.. 2020. 9. 10.
Ai.x : 디지털 시대의 암 진단 Deep Bio : medical solution을 하는 회사 암은 가장 높은 사망의 원인, 잘 해결 안된다 해결방법은 1. 의사찾고, 임상진단을 한다. 2. 영상진단, 3. 조직진단 --> 병리학이라 한다. 피만 뽑아서 암을 진단하기는 어렵다. 지금까지는 현미경을 통해서 조직을 본 후 암을 판단하는데 이를 인공지능으로 판단하겠다는 것이다. 지금은 인공지능이 feature를 찾는다. 다른 기계학습은 어느정도 막혔지만, 딥러닝은 데이터가 많을수록 성능이 엄청 좋아진다. 의료는 인공지능은 의사의 의사결정단계를 도와주는 쪽으로 한다. 결국 의료데이터는 저장방식이나 저장 순서 등에 영향을 많이 받을 수 있다. 그래서 가이드라인이 정해졌다. Xray를 찍어도 병에 대해 정확히 예측을 하지 못해서 이를 해부학으로 .. 2020. 9. 10.
RL : RL 용어정리 Enviroment agent 가 속한 환경. state와 reward를 내릴 수 있는 기준의 참고문헌. 게임규칙, $(S,A,R)$ 모든 것이 Enviroment 의 요소다. Agent state에 따라 어떤 action을 내릴지 판단을 내리는 주체 State $S$. 현재 시점에서 상황이 어떤지 나타내는 값의 집합 Action $A$. Agent가 선택하는 선택지를 말한다. Reward를 얻기 위해 하는 선택지다. Reward $R$. 어떤 action을 취했을 때, 그 action 에 대한 보상이다. 이는 한 action에만 해당한다. initial state Agent가 Enviroment와 처음 상호작용할 때의 상태를 뜻한다. terminal state 더이상의 action이 불가능한 상태를 뜻.. 2020. 9. 8.
RL : TD Method TD Method Monte-Carlo방법에 이어 두 번째 방법은 Temporal Difference, 또는 TD다. TD Method 목적 Monte-Carlo에서는 실제로 얻어진 return값들을 사용하는데, Agent가 이 return을 얻는데까지는 많은 시간이 필요한 경우도 있다. 그리고 return은 오랜 기간동안 얻은 reward들을 사용하기 때문에 평균을 내야하는 각각의 return값들이 매우 다를 수 있다. 게임이나 현실의 문제는 episode의 끝이 무한대에 가깝도록 길기 때문에 episode가 반드시 끝나야 학습을 하는 MC의 방법으로는 한계가 존재한다. TD Method 정의 MC Method의 단점들을 보완해 Agent가 return을 얻기까지 기다리지 않고, 매 time-step마.. 2020. 9. 6.
RL : Monte Carlo Method Introduction 앞서서 우리는 Model을 아는 경우, Dynamic Planning 을 통해서 True Value Function을 예측한다고 배웠다. 이 때 우리는 full-width backup, 즉, 모든 state들을 업데이트 할 수 있다. 왜냐하면 우리는 이미 model을 알고 있기 때문이다. 하지만 강화학습은 Model 을 모르는 경우이기 때문에 sample backup을 진행한다. 따라서 모든 state들을 고려하지 않고, 그 중에서 sampling을 통해서 한 길만 선택해서 가보는 것이다. 이처럼 sample backup을 하는 것은 Monte Carlo Method 와 TD Method 방법 두 가지가 있다. 그래서 실제로 알파고에도 쓰였던, 모든 step을 training 하는.. 2020. 9. 6.