딥러닝에서는 backpropagation을 통해 가중치를 갱신하여 cost function을 최소화 하는 방향으로 접근한다. 우리는 backpropagation을 수행할 때 미분을 통해 신호를 전달하는 것을 알고 있다. 선형 모델을 미분할 경우 다음과 같은 가중치 벡터(
이차 모델을 미분할 경우 행렬(
벡터를 스칼라로 미분할 경우 아래와 같은 결과가 도출된다.
이때
딥러닝에서는 독립 변수(independent variable)
그렇다면 자코비안 행렬의 이해를 돕기위해 다음과 같은 예를 생각해보자. 함수
우리가 기계학습, 딥러닝에서 사용하는 SGD, Momentum, Adam, AdamW 등은 모두 자코비안에만 의존하여 계산된다. 2차 편미분을 고려하는 헤시안 행렬(Hesian Matrix)도 존재하지만, 매 출력마다
함수
헤시안 행렬을 구하기 위해
'Mathematics > Calculus' 카테고리의 다른 글
상미분 방정식의 종류와 근사해법 (0) | 2023.05.30 |
---|---|
[Calculus] Sigmoid 함수 미분하기 (0) | 2022.03.17 |
[Calculus] 라플라스 변환(Laplace Transform) (0) | 2022.03.14 |
[Calculus] Taylor series 는 무엇일까? (0) | 2022.03.11 |
[Calculus] 수치 미분(numerical differential) (0) | 2022.03.11 |