티스토리 뷰

pytorch 의 official TransformerDecoder 레이어가 포함된 모델을 onnx 변환하려니 아래와 같이 onnx에서 지원하지 않는 연산이라며 오류가 발생했다.

 

aten::_native_multi_head_attention ~

 

우회법은 onnx 변환 함수 호출하기전에 torch.backends.mha.set_fastpath_enabled(False) 를 호출해주는 것이다.

 

이 방법 찾기 전에는 TransformerDecoder 상속 받아서 multi head attention 부분만 custom op로 돌아가게 오버라이딩 해야하나 이런 고민을 했었는데, 저거 호출하고 변환하니 일단은 변환 돼서 안심...

 

 

 
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/04   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30
글 보관함