[Calculus] Taylor series 는 무엇일까?
테일러 급수(Taylor series)는 임의의 함수 를 다항함수로 표현하는 것을 일컫는다. 머신러닝이나 딥러닝에서는 실제 데이터의 함수가 어떻게 생겼는지 알지 못한다. 이런 상황에서 임의의 함수 를 다항식으로 근사하여 점 에서의 값을 도출할 수 있으며, 항이 많아질수록 근사의 정확도는 높아진다. 우리는 임의의 점 에 대해서 함숫값 가 주어지고, 그의 도함수인 가 주어졌을 때 이웃한 점에서의 함숫값을 추정할 수 있을 것이다. 다만, 테일러 급수에서 주의해야될 점은 에서 근처 임의의 점() 간의 거리가 멀어질수록 큰 오차를 가지게 된다. 그렇기에 점 와 점 간의 거리를 최소화 하는 지점을 적절히 선정해..