전체 글
-
딥러닝 공부 - 신경망 첫걸음 정리_6_실습_신경망 코드 작성인공지능, 머신러닝 2020. 1. 30. 10:50
Jupyter Notebook 파일 신경망 뼈대코드 신경망에 들어가야할 기본적인 코드는 다음과 같다. 값 초기화 코드 : 각 계층의 노드 수, 가중치, 학습률의 값을 설정해준다. (__init__()메서드) 학습 코드 : 가중치를 수정하는 부분의 코드이다. (train()메서드) 질의 코드 : 현재의 가중치를 가지고 질의하여 결과를 얻는 부분의 코드이다 (query()메서드) 값 초기화 값 초기화 부터 해보자. 각 계층의 노드 개수와, 학습률 설정 (이전에 이야기 했듯이, 하나의 클래스를 신경망으로 사용한다. 그리고 아래 그림에 적어놨듯이, 객체를 선언할때, 매개변수로만 __init__()함수에 전달 해주면 된다. 그리하여, 신경망이 필요할 때 마다 새롭게 코드를 작성하지 않고도, 신경망을 사용할 수 있..
-
딥러닝 공부 - 신경망 첫걸음 정리_5_실습_Numpy, Matplotlib, Class인공지능, 머신러닝 2020. 1. 30. 02:12
기본적으로 사용할 것들인 Numpy, Matplotlib, Class를 알아보자. jupyter notebook 파일 시작하기 전에 말하지만, 제일 중요한 건, 공식 사이트에서 궁금한 것을 찾아보는 것이다. 물론 문제해결이 목적이라면, 구글 검색이 제일이지만, 그래도 우선인건 공식 사이트이다. 내가 무언가를 빠트렸을지도 모르기 때문이다. https://www.scipy.org/docs.html 에서 numpy,그리고 정말 좋은 scipy(sigmoid함수, sigmoid의 역함수 등을 제공) 모듈을 볼 수 있다. matplotlib는 https://matplotlib.org/ 에서 보자. quick search에서 대부분 볼 수 있을 것이다. Numpy 1. np.zeros()는 인자로 주어진 행렬을(배..
-
딥러닝 공부 - 신경망 첫걸음 정리_4_실습_여담 (jupyter notebook 자동화, 자동실행)인공지능, 머신러닝 2020. 1. 29. 20:43
실습 더이상 노트에 필기 정리한 것은 없다. 다 jupyter notebook에 정리하였다. 코드만 여기에 TEXT로 올리고 나머지는 스크린 샷과 jupyter notebook 파일을 통해 대체하겠다. 지금은, Jupyter Notebook을 실행하는 것이 너무 귀찮았기에.. Jupyter Notebook의 자동실행에 대해 간단하게 포스팅해보겠다. Jupyter Notebook 자동실행, 자동화 1. Anaconda Prompt(환경이름) 의 실행위치 확인하기 본인의 Anaconda Prompt (환경이름) 파일의 속성에서 대상(T)의 경로를 그대로 복사한다. 2. .bat 파일 작성 notepad를 열고 (Window키 + R --> notepad입력) cd "jupyter notebook을 실행시키고..
-
딥러닝 공부 - 신경망 첫걸음 정리_3_개념 마무리인공지능, 머신러닝 2020. 1. 29. 20:26
오랜만의 포스팅이다. 그동안 바쁘기도 했고, 공부하는 내용이 쉽지는 않아, 이해하는데 시간이 걸렸다. 우선, 블로그에 올리기 전에 손으로 정리해서 17장으로 정리하였다. 오늘은 이전에 포스팅한 이후 공부한 내용을 정리 해볼 것이다. 이 포스팅까지는 이론, 다음 포스팅으로는 실전 적용(MNIST)를 포스팅하겠다. 하지만, 정리를, Jupyter Notebook에 대부분 해서 그것의 스크린 샷 혹은, 파일 공유로 대체하겠다. 경사하강법의 도입출력 값을 수식으로 구하는 것은 엄청난 짓에 가깝다. 너무 많은 가중치가 존재하고, 하나의 출력은 또 다른 입력이 되기 때문이다. 참고로 3계층 * 3개node의 출력은 다음과 같다. 끔찍 그 자체이다. 더군다나 이 출력을 바꾸려고 가중치를 수정하는 것은 정말 어렵다.또..
-
딥러닝 공부 - 신경망 첫걸음 정리_2인공지능, 머신러닝 2020. 1. 22. 04:22
계층 3이어서 3계층 신경망에 행렬곱을 적용해서 출력 값을 구해보자.앞으로 계속 쓸거 같아 그려봤다.이렇게 되었을때, 초기 Input Layer에 들어가는 값을 I_1 I_2 I_3라고 하자 그러면 Hidden Layer 에 들어가는 값은, X값은 전에 포스팅 했던 대로, X_hidden=I(입력값 행렬 I_1 ~ I_3) * W_input(input layer의 가중치 행렬, W_i(1,1) ~ W_i(3,3))이다. 그리고, Hidden Layer에서 나온 값 O_hidden= Sigmoid(X_hidden)이다 아름답지 않은가..이제 X_output을 구해보자. X_output = O_hidden * W_hidden(hiddden layer의 가중치 행렬, W_h(1,1) ~ W_h(3.3))이 된..
-
딥러닝 공부 - 신경망 첫걸음 정리인공지능, 머신러닝 2020. 1. 19. 22:22
어떤 강의를 들을지 모르겠다..이 책은 전에 읽었던 책이고, 다시 복습하는 차원에서 필요한 것만 정리하겠다. 우선 신경망의 개념을 익히는 단계에서, 많은 예시를 들었다. 핵심적으로 다룬 것은 선형분류자, 오차, 학습률이다. 1. 선형함수선형함수 : 선이 아닐 지라도 직선의 특징을 가지고 있다는 것이고 여기서 말하는 직선의 특징은 중첩의 원리(principle of superposition)또는 선형성의 원리(Linearity principle)이다. 일차함수를 생각하면 될 것이다. 단, 선형함수는 부모집단이고, 일차함수는 자식함수다. 선형분류자 : 선형으로된 분류자. (기울기를 통해 분류하고 나누는 분류자, 기울기를 조절하여 최적의 분류자를 도출한다.) 2. E = T(Target) - ax(선형분류자,..
-
Andrew ng교수님 강의 내용 복습 및 정리 1. What is Machine Learning?인공지능, 머신러닝 2020. 1. 18. 00:25
오늘부터 정말 많은 사람들이 추천하는 Andrew ng 교수님의 machine learning강좌를 들을 것이다. Coursera에서 들을 것이고, 매일 1개에서 3개를 유기적으로 들어나갈 생각이다. 그리고 그 내용을 정리하고 복습할 겸 올려보고자 한다.한국어 자막이 없는 것이 꽤 있었다. 그런데 다행이 edwith에서 andrew ng 교수님이 강의하는 강좌를 모두 번역해서 올려주었다. 정말 감사하게 볼것이다. 본 포스팅 까지는 기존 coursera 강좌이고 다음 포스팅 부터는 edwith의 강좌이다. 어떻게 공부할 지 많은 정보를 보고 들으며 결정했다. 만일 도움될만한 자료들이 궁금한 사람, 어떻게 공부해야되는지 궁금한사람은 아래 주소를 오픈해둘테니 가서 참고해 도움이 되었으면 한다. 자료의 출처는 ..
-
konlpy 설치시, hannanum()실행시 뜨는 에러들 해결 (jpype문제 포함) 및 설치 과정카테고리 없음 2019. 10. 13. 19:15
----------------------------- convertStrings was not specified when starting the JVM. The default behavior in JPype will be False starting in JPype 0.8. The recommended setting for new code is convertStrings=False. The legacy value of True was assumed for this session. If you are a user of an application that reported this warning, please file a ticket with the developer. -----------------------..