네이버 부스트캠프 AI Tech/Deep Learning Basics

[부스트캠프 AI Tech] Deep learning basics

중앙백 2022. 1. 22. 17:31
  • 신경망(neural network)은 비선형모델이다.
  • 신경망을 수식으로 분해하면 다음과 같다

출처 : 부스트캠프 AI Tech

  • 각 행벡터o는 데이터x와 가중치 행렬W의 곱으로 표현된다.

출처 부스트캠프 AI Tech

  • 각 데이터x(행벡터)는 d개의 변수를 갖고 있고 출력에 해당하는 o는 p개의 변수를 갖고 있다. 즉 가중치 벡터 W는
    d * p 개의 성분을 갖고 있다.
  • 출력벡터 o에 softmax 함수를 합성하면 확률벡터로 변한다. 이는 특정 클래스 k에 속할 확률로 해석할 수 있음.
    출처 부스트캠프 AI Tech
신경망
  • 신경망은 선형모델과 활성함수(activation function)을 합성함 함수이다.
    활성함수 시그마로 새로운 잠재벡터 형성
  • 활성함수 : R위에 정의된 비선형 함수. 활성함수가 없는 딥러닝은 선형모형과 차이가 없음.
    활성함수의 종류
  • 신경망을 여러층으로 쌓을 수록 목적함수를 구하는데 필요한 뉴런(노드)의 숫자가 줄어들어 효율적인 학습 가능.

 

순전파와 역전파

순전파

  • l = 1, ... , L까지 순차적인 신경망 계산을 순전파(forward propagation)라 부른다.  
    역전파
  • l = L, ..., 1 순서로 연쇄법칙을 통해 그레디언트 벡터를 전달하는 계산을 역전파(backward propagation)이라 한다.