728x90
자주 까먹기 때문에 글을 남겨둠.
Convolution - Batch Normalization - Activation - Dropout - Pooling
자세한 내용은 아래 블로그 확인!
gaussian37.github.io/dl-concept-order_of_regularization_term/
BatchNormalization, Dropout, Pooling 적용 순서
gaussian37's blog
gaussian37.github.io
'관심있는 주제 > 뉴럴넷 질문' 카테고리의 다른 글
| Google’s RFA: Approximating Softmax Attention Mechanism in Transformers 간단하게 알아보기 (0) | 2021.03.01 |
|---|---|
| Aleatory Overfitting vs. Epistemic Overfitting (3) | 2020.12.24 |
| Causual Inference 관련 자료 모으기 (1) | 2020.10.26 |
| [Review / NN] Cyclical Learning Rates for Training Neural Networks 논문 (0) | 2020.10.21 |
| [Review / NN] SuperTML / 정형데이터를 CNN에 적용하기(Transfer Learning) (0) | 2020.10.16 |