[TIP] CNN) BatchNormalization, Dropout, Pooling 적용 순서
2020. 10. 31. 14:43ㆍ관심있는 주제/뉴럴넷 질문
자주 까먹기 때문에 글을 남겨둠.
Convolution - Batch Normalization - Activation - Dropout - Pooling
자세한 내용은 아래 블로그 확인!
gaussian37.github.io/dl-concept-order_of_regularization_term/
728x90
'관심있는 주제 > 뉴럴넷 질문' 카테고리의 다른 글
Google’s RFA: Approximating Softmax Attention Mechanism in Transformers 간단하게 알아보기 (0) | 2021.03.01 |
---|---|
Aleatory Overfitting vs. Epistemic Overfitting (3) | 2020.12.24 |
Causual Inference 관련 자료 모으기 (1) | 2020.10.26 |
[Review / NN] Cyclical Learning Rates for Training Neural Networks 논문 (0) | 2020.10.21 |
[Review / NN] SuperTML / 정형데이터를 CNN에 적용하기(Transfer Learning) (0) | 2020.10.16 |