데이터가 주어졌을 때 우리가 구축한 모델이 데이터를 제대로 설명하는지 확인할 필요가 있다. AIC(Akaike information criterion)은 모델을 평가하는 지표 중 하나로 최소의 정보 손실을 갖는 모델이 가장 데이터와 적합만 모델로 선택하는 방법이다. 즉, 변수의 수는 적고, 이 변수들로 나타낼 수 있는 설명력은 높아야 한다는 것이다. 일반적으로 데이터를 구성하는 변수가 많으면 많을수록 과적합(Overfitting) 문제가 발생한다. 또한 많은 양의 데이터가 요구된다. 따라서, 최소한의 변수들로 모델을 구성해 과적합을 방지할 뿐만 아니라 불필요한 변수를 반영하지 않음으로써 모델의 설명력을 확보할 수 있다.
이때
변수가 추가되더라도
딥러닝에서는 주로 사용되지 않는 평가지표이고, AIRMA, Linear Regression과 같은 통계 모델에서 주로 사용된다.
'Mathematics > Statistics' 카테고리의 다른 글
[Statistics] Probability 110 - Conditional Probability (0) | 2022.09.07 |
---|---|
[Statistics] Probability 110 - Probability and Counting (0) | 2022.09.06 |
[Statistics] 구조방정식모델(structural equation model)의 모든 것 (6) | 2022.03.29 |
[Statistics] F-test (0) | 2022.03.23 |
[Statisctics] entropy, cross entropy, KL-Divergence (0) | 2022.03.11 |