[Calculus] Jacobian matrix 딥러닝에서는 backpropagation을 통해 가중치를 갱신하여 cost function을 최소화 하는 방향으로 접근한다. 우리는 backpropagation을 수행할 때 미분을 통해 신호를 전달하는 것을 알고 있다. 선형 모델을 미분할 경우 다음과 같은 가중치 벡터(w)가 산출된다. ∂wTx∂x==∂xTw∂x=w 이차 모델을 미분할 경우 행렬(A,AT)과 벡터(x)의 곱으로 산출된다. ∂xTAx∂x=(A+AT)x 벡터를 스칼라로 미분할 경우 아래와 같은 결과가 도출된다. \[ \frac{\partial \bol.. Mathematics/Calculus 2022.03.11