Neural Additive Models:Interpretable Machine Learning with Neural Nets
2020년 4월 29일 날 논문 아직 accept이 될지는 모르겠지만, 일단 간단하게 살펴보기 기존 DNN은 뛰어난 성능을 보이지만, 어떻게 결정을 내리는지 대게 불분명하기 때문에, 해석성 측면에서 손실이 생긴다. 그래서 해석성을 할 수 있는 NAM이라는 것을 주장하고, 여기서 주장하는 NAM(Neural Additive Models)는 각 인풋 변수에 관여하는 신경망의 선형 결합을 학습한다고 함. 아래 그림 처럼 하나의 인풋에다가 각각의 뉴럴 네트워크를 만들어서 하겠다는 것인데, 흐음... 괜찮을지는 의문이긴 함. 결국 상관성은 고려하지않고, 각 독립변수에 대해서 네트워크를 만든다는 느낌? NAM은 GAM(Generalized Additive Models) 중에 하나 GAM 중에서 NAM을 쓰면 이러한..
2020.05.02