ViT, Swin transformer
W-MSA: window multi-head self attention, SW-MSA: shifted window multi-head self attention
'CS 지식 > 딥러닝 및 응용' 카테고리의 다른 글
[필기] Transformer 기초 (0) | 2024.06.22 |
---|---|
[필기] 여러가지 GAN model (0) | 2024.06.22 |
[필기] GAN 기초 (0) | 2024.06.22 |
[필기] soft attention for captioning (0) | 2024.06.22 |
[필기] RNN과 LSTM (0) | 2024.06.22 |