티스토리 뷰
비디오(=여러 프레임)를 입력으로 하는 모델의 경우 학습하는데 요구되는 메모리 사용량이 너무 높다. PyTorch의 amp 기능덕에, 그리고 이 기능이 동작하게 GPU를 제작한 Nvidia덕에 아주 조금 숨통 틔이게는 할 수는 있지만... 쉽지 않은 거 같다.
점차 비디오 기반의 모델들이 많이 나올 거 같은데, 지금의 메인스트림급 GPU에서는 이를 트레이닝 하기가 쉽지 않은 거 같다. 점점 메모리가 큰 GPU가 출시될 거 같은데... 비싸서 집에는 들이기 힘들 거 같고 FP8 연산이 지원되는 메인스트림급 GPU가 어서 나왔으면한다.
https://arxiv.org/abs/2209.05433
FP8 Formats for Deep Learning
FP8 is a natural progression for accelerating deep learning training inference beyond the 16-bit formats common in modern processors. In this paper we propose an 8-bit floating point (FP8) binary interchange format consisting of two encodings - E4M3 (4-bit
arxiv.org
'기타' 카테고리의 다른 글
| 20230525 챗지피티야 한국에서 요약은 3줄로 정리함을 의미한단다. (0) | 2023.05.25 |
|---|---|
| 20230525 챗지피티 너무 유용하다. (0) | 2023.05.25 |
| 20230517 챗지피티 플러스 결제 완료 (1) | 2023.05.17 |
| MAC주소 제조사별 OUI 확인 사이트 (0) | 2023.05.11 |
| 20230510 압박감과 공포감 (0) | 2023.05.10 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- ㅂ
- FairMOT
- 위상 정렬 알고리즘
- 단축키
- 백준 1766
- 백준 11053
- C++ Deploy
- MOT
- LCA
- 가장 긴 증가하는 부분 수열
- 인공지능을 위한 선형대수
- cosine
- 백트래킹
- 조합
- 문제집
- PyCharm
- 파이참
- 백준 11437
- 자료구조
- Lowest Common Ancestor
- 이분탐색
- 순열
- 백준
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
글 보관함
