티스토리 뷰

pytorch 의 official TransformerDecoder 레이어가 포함된 모델을 onnx 변환하려니 아래와 같이 onnx에서 지원하지 않는 연산이라며 오류가 발생했다.

 

aten::_native_multi_head_attention ~

 

우회법은 onnx 변환 함수 호출하기전에 torch.backends.mha.set_fastpath_enabled(False) 를 호출해주는 것이다.

 

이 방법 찾기 전에는 TransformerDecoder 상속 받아서 multi head attention 부분만 custom op로 돌아가게 오버라이딩 해야하나 이런 고민을 했었는데, 저거 호출하고 변환하니 일단은 변환 돼서 안심...

 

 

 
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2026/01   »
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함