티스토리 뷰
Deep Learning
torch2onnx transformer encoder, decoder onnx변환시 aten::_native_multi_head_attention 에러 우회법
developer0hye 2025. 2. 18. 22:13pytorch 의 official TransformerDecoder 레이어가 포함된 모델을 onnx 변환하려니 아래와 같이 onnx에서 지원하지 않는 연산이라며 오류가 발생했다.
aten::_native_multi_head_attention ~
우회법은 onnx 변환 함수 호출하기전에 torch.backends.mha.set_fastpath_enabled(False) 를 호출해주는 것이다.
이 방법 찾기 전에는 TransformerDecoder 상속 받아서 multi head attention 부분만 custom op로 돌아가게 오버라이딩 해야하나 이런 고민을 했었는데, 저거 호출하고 변환하니 일단은 변환 돼서 안심...

'Deep Learning' 카테고리의 다른 글
pytorch docker 이미지에서 onnxruntime-gpu cuda 인식 안되는 경우 (0) | 2025.02.21 |
---|---|
다양한 최신 백본으로 Image Classification 성능 측정한 논문 - 다시 보기용 (0) | 2025.02.19 |
face recognition task와 face alignment (0) | 2025.01.31 |
arcface 이후에 나온 public available face recognition 모델들 (0) | 2025.01.30 |
semantic segmentation loss survey논문 (0) | 2025.01.30 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- FairMOT
- Lowest Common Ancestor
- 백준 11053
- 백준 1766
- LCA
- ㅂ
- 이분탐색
- 자료구조
- PyCharm
- 백준 11437
- 백트래킹
- 파이참
- cosine
- 가장 긴 증가하는 부분 수열
- 조합
- 위상 정렬 알고리즘
- 인공지능을 위한 선형대수
- MOT
- 단축키
- 문제집
- 백준
- 순열
- C++ Deploy
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함