
pytorch 의 official TransformerDecoder 레이어가 포함된 모델을 onnx 변환하려니 아래와 같이 onnx에서 지원하지 않는 연산이라며 오류가 발생했다. aten::_native_multi_head_attention ~ 우회법은 onnx 변환 함수 호출하기전에 torch.backends.mha.set_fastpath_enabled(False) 를 호출해주는 것이다. 이 방법 찾기 전에는 TransformerDecoder 상속 받아서 multi head attention 부분만 custom op로 돌아가게 오버라이딩 해야하나 이런 고민을 했었는데, 저거 호출하고 변환하니 일단은 변환 돼서 안심...

https://github.com/developer0hye/imgdiet GitHub - developer0hye/imgdiet: A Python package for minimizing file size of images with negligible quality lossA Python package for minimizing file size of images with negligible quality loss - developer0hye/imgdietgithub.com 수행시간을 로깅하는 건 때론 유용한 정보를 준다. 그치만 위에 코드처럼 구현하면 코드가 지저분해진다. 수행 시간 측정하는 코드를 데코레이터로 구현함수내에 있는 로깅 코드를 따로 데코레이터로 빼서 보다 가독성을 높였다.
- Total
- Today
- Yesterday
- LCA
- cosine
- 인공지능을 위한 선형대수
- 파이참
- PyCharm
- Lowest Common Ancestor
- 이분탐색
- 문제집
- 백준
- ㅂ
- 순열
- 조합
- C++ Deploy
- MOT
- 단축키
- FairMOT
- 백트래킹
- 백준 1766
- 위상 정렬 알고리즘
- 가장 긴 증가하는 부분 수열
- 자료구조
- 백준 11437
- 백준 11053
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |