CS 지식/딥러닝 및 응용

[필기] Transformer for Vision problem

남하욱 2024. 6. 22. 21:43

ViT, Swin transformer

swin transformer block

W-MSA: window multi-head self attention,  SW-MSA: shifted window multi-head self attention

'CS 지식 > 딥러닝 및 응용' 카테고리의 다른 글

[필기] Transformer 기초  (0) 2024.06.22
[필기] 여러가지 GAN model  (0) 2024.06.22
[필기] GAN 기초  (0) 2024.06.22
[필기] soft attention for captioning  (0) 2024.06.22
[필기] RNN과 LSTM  (0) 2024.06.22