[부스트캠프 AI Tech] 1주차
간단한 1주차 학습 회고록.
- 강의 내용 정리
2. numpy
6. 확률론 맛보기
7. 통계학 맛보기
8. CNN/RNN 맛보기
- 과제 수행 과정 / 결과물 정리
1. Gradient_Descent(경사하강법) : 경사하강법을 적용할 수 있는 과제. 1차원 좌표에서 경사하강법은 어렵지 않았다. 3차원 공간에서 경사하강법을 위해 gradient vector를 구해야 했는데 이 과정이 어려웠음. 처음에는 임의의 n차원공간에서 미분하는 것을 생각했는데 잘 되지 않았고, 2차원, 3차원 공간에서 gradient를 구하며 일반화하는 과정을 거쳐 해결할 수 있었음.
gradient vector를 구한다고 답이 나오는 건 아니었다. 이를 파이썬을 통해 구현하는 것이 다음 문제였는데 시간을 들여서 해결.
2. Backpropagation : 다층 네트워크에서 chain rule을 사용해서 역전파를 구현해보라는 의도는 알겠는데, chain rule을 구체적으로 어떻게 적용해야 하는지 감이 잡히지 않아서 많은 시간을 잡아먹었다. 나중에는 아이디어를 떠올렸다고 생각했는데 아직 numpy 사용법이 익숙하지 않은지 결국 풀지 못했음.
3. Maximum_Likelihood_Estimation : 시간이 부족해서 개념만 읽어봄. 주말에 복습.
- 피어세션 정리
- 현재는 강의 내용 중 모르는 부분에 대해서 질의응답을 하는 형식으로 진행 중.
- 질문에 대해 성심성의 껏 답변해주시는 팀원 분들이 있어 감사하다.
- 학습 회고
- 선형 대수학, 통계학, Python등 배워야 할 게 산더미다.
- 당분간은 선형 대수학을 공부하는데 초점을 맞추고 Python에 익숙해지는 것을 목표로 하겠다.