인공지능, 머신러닝
-
딥러닝 공부 - 신경망 첫걸음 정리_2인공지능, 머신러닝 2020. 1. 22. 04:22
계층 3이어서 3계층 신경망에 행렬곱을 적용해서 출력 값을 구해보자.앞으로 계속 쓸거 같아 그려봤다.이렇게 되었을때, 초기 Input Layer에 들어가는 값을 I_1 I_2 I_3라고 하자 그러면 Hidden Layer 에 들어가는 값은, X값은 전에 포스팅 했던 대로, X_hidden=I(입력값 행렬 I_1 ~ I_3) * W_input(input layer의 가중치 행렬, W_i(1,1) ~ W_i(3,3))이다. 그리고, Hidden Layer에서 나온 값 O_hidden= Sigmoid(X_hidden)이다 아름답지 않은가..이제 X_output을 구해보자. X_output = O_hidden * W_hidden(hiddden layer의 가중치 행렬, W_h(1,1) ~ W_h(3.3))이 된..
-
딥러닝 공부 - 신경망 첫걸음 정리인공지능, 머신러닝 2020. 1. 19. 22:22
어떤 강의를 들을지 모르겠다..이 책은 전에 읽었던 책이고, 다시 복습하는 차원에서 필요한 것만 정리하겠다. 우선 신경망의 개념을 익히는 단계에서, 많은 예시를 들었다. 핵심적으로 다룬 것은 선형분류자, 오차, 학습률이다. 1. 선형함수선형함수 : 선이 아닐 지라도 직선의 특징을 가지고 있다는 것이고 여기서 말하는 직선의 특징은 중첩의 원리(principle of superposition)또는 선형성의 원리(Linearity principle)이다. 일차함수를 생각하면 될 것이다. 단, 선형함수는 부모집단이고, 일차함수는 자식함수다. 선형분류자 : 선형으로된 분류자. (기울기를 통해 분류하고 나누는 분류자, 기울기를 조절하여 최적의 분류자를 도출한다.) 2. E = T(Target) - ax(선형분류자,..
-
Andrew ng교수님 강의 내용 복습 및 정리 1. What is Machine Learning?인공지능, 머신러닝 2020. 1. 18. 00:25
오늘부터 정말 많은 사람들이 추천하는 Andrew ng 교수님의 machine learning강좌를 들을 것이다. Coursera에서 들을 것이고, 매일 1개에서 3개를 유기적으로 들어나갈 생각이다. 그리고 그 내용을 정리하고 복습할 겸 올려보고자 한다.한국어 자막이 없는 것이 꽤 있었다. 그런데 다행이 edwith에서 andrew ng 교수님이 강의하는 강좌를 모두 번역해서 올려주었다. 정말 감사하게 볼것이다. 본 포스팅 까지는 기존 coursera 강좌이고 다음 포스팅 부터는 edwith의 강좌이다. 어떻게 공부할 지 많은 정보를 보고 들으며 결정했다. 만일 도움될만한 자료들이 궁금한 사람, 어떻게 공부해야되는지 궁금한사람은 아래 주소를 오픈해둘테니 가서 참고해 도움이 되었으면 한다. 자료의 출처는 ..