티스토리 뷰
MELO: LOW-RANK ADAPTATION IS BETTER THAN FINE-TUNING FOR MEDICAL IMAGE DIAGNOSIS
https://arxiv.org/pdf/2311.08236
https://github.com/JamesQFreeman/LoRA-ViT

메디컬 도메인이긴 하지만 Task와 Dataset에 따라 성능 개선될 여지가 있음을 보임
AdaptFormer: Adapting Vision Transformers for Scalable Visual Recognition
https://arxiv.org/abs/2205.13535
https://github.com/ShoufaChen/AdaptFormer
GitHub - ShoufaChen/AdaptFormer: [NeurIPS 2022] Implementation of "AdaptFormer: Adapting Vision Transformers for Scalable Visual
[NeurIPS 2022] Implementation of "AdaptFormer: Adapting Vision Transformers for Scalable Visual Recognition" - ShoufaChen/AdaptFormer
github.com

Visual Prompt Tuning
제목이 뭔가 심플하고 근본있어보인다.
https://arxiv.org/abs/2203.12119
GitHub - KMnP/vpt: ❄️🔥 Visual Prompt Tuning [ECCV 2022] https://arxiv.org/abs/2203.12119
❄️🔥 Visual Prompt Tuning [ECCV 2022] https://arxiv.org/abs/2203.12119 - KMnP/vpt
github.com

ViT 입력으로 Learnable Token을 추가로 Embedding하여 학습하는 방식, 제목만큼이나 심플하다.
Parameter-Efficient Fine-Tuning for Pre-Trained Vision Models: A Survey
결국 위 방법들과 내가 찾고 싶은 방법들은 PEFT(Parameter-Efficient Fine-Tuning)이다. 다양한 PEFT 방법에 대한 서베이 논문
https://arxiv.org/pdf/2402.02242

'Deep Learning' 카테고리의 다른 글
| a10g 4x vs l40s 4x gpu 비교 (1) | 2025.06.06 |
|---|---|
| peft, timm 기반 InternViT-300M-448px-V2.5 모델 lora 적용 코드 예시 (0) | 2025.06.03 |
| 8x A10G (g5.48xlarge) vs 4x A5000 학습 뭐가 더 빠를까? (4) | 2025.05.10 |
| internvl3 이 나왔었네 (0) | 2025.05.04 |
| hugging face grounding dino base demo space 개설 (0) | 2025.05.02 |
- Total
- Today
- Yesterday
- 백트래킹
- C++ Deploy
- 가장 긴 증가하는 부분 수열
- 백준 11437
- 문제집
- 이분탐색
- 위상 정렬 알고리즘
- 자료구조
- FairMOT
- cosine
- 조합
- LCA
- ㅂ
- 백준 11053
- 백준
- 단축키
- PyCharm
- MOT
- 순열
- 백준 1766
- 인공지능을 위한 선형대수
- 파이참
- Lowest Common Ancestor
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
