728x90
0. why skip-connection?
ResNet (Shortcut Connection과 Identity Mapping) [설명/요약/정리]
등장 배경 레이어가 많아져, 인공신경망이 더 깊어질 수록 gradient vanishing/exploding 문제가 커집니다. 이전의 다른 방법들로 이 문제를 해결했다고 생각했지만, 수십개의 레이어를 가진 모델에서는
lv99.tistory.com
1. General Architecture of ResNet
1.1 Main Block of ResNet
2. Architecture of ResNet50
https://eremo2002.tistory.com/76
ResNet50 구현해보기
케라스를 이용하여 ResNet50을 구현하였다.ResNet 50-layer 네트워크 구조는 다음과 같다. 그리고 레이어가 50개 이상인 버전에서는 오른쪽과 같은 bottleneck skip connection 구조를 사용한다. 케라스에서 제
eremo2002.tistory.com
728x90
'AI > Data Science' 카테고리의 다른 글
[Tensorflow] Callback 콜백함수란? (0) | 2023.08.03 |
---|---|
Optimizer vs Learning-rate Scheduler (feat. 어떤 조합이 좋을까?) (0) | 2023.08.03 |
[Data Science] NN에서 Backpropagation (0) | 2023.07.17 |
[Data Science] Loss function, Cross Entropy, Log-likelihood (0) | 2023.07.16 |
[통계] 모수, 확률변수, 확률분포, 이산확률분포, 연속확률분포, 독립항등분포 (0) | 2023.07.16 |