티스토리 뷰
Deformable Convolution v2(이하 DCN v2) 논문을 읽다보면 v1과 다르게 modulator 를 곱하는 연산이 추가되었다.
근데 이 modulator의 범위가 0~1 로 나오게된다.
modulator는 학습 초반의 평균값이 0.5 가 나오게끔 설계되는데, 그렇다면 DCN v2 레이어를 통과할때마다 피쳐맵의 전체적인 스케일이 점점 줄어들 가능성이 크다.
깃헙에 공개된 코드를 분석하다보니 저자들도 이러한 부분에 대한 처리를 따로 해준것으로 보인다.
이건 official implementation 코드 일부인데 mask에 2를 곱하는 부분이 있다.
이건 mxnet에 구현된 DCNv2 연산 과정 일부다. mask 가 위에서 언급한 modulator인데 2를 곱하는 부분이 있다.
예상컨데, official implementation code는 mxnet 내부적으로 2가 곱해지는 것을 고려하지 않고 외부에서 한 번 더 2를 곱해준것같다. 아니면 저 코드를 짤 당시에는 mxnet 에 2가 곱해지는 연산이 없었다거나 둘중 하나의 경우일 것 같다.
논문에는 이 부분에 대한 언급이 없다. 내가 못 찾은 걸 수도 있고
이슈를 달긴했는데 답이 달릴지는 모르겠다.
github.com/msracver/Deformable-ConvNets/issues/280
'Deep Learning' 카테고리의 다른 글
OpenCV Color Conversion Coefficients (0) | 2021.08.31 |
---|---|
COCO 데이터로더 구현 참고 코드 (0) | 2021.06.03 |
CNN기반 객체 검출 모델 설계 및 학습을 위한 실용적인 팁을 제안한 논문들 (0) | 2021.03.11 |
YOLOV4 관련 자료 모음 (0) | 2021.02.28 |
Empirical study on label smoothing in neural networks (0) | 2021.02.27 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 이분탐색
- 가장 긴 증가하는 부분 수열
- 백준 1766
- 위상 정렬 알고리즘
- 순열
- 파이참
- 백준 11053
- 조합
- C++ Deploy
- cosine
- 백트래킹
- ㅂ
- MOT
- 인공지능을 위한 선형대수
- 단축키
- 백준
- 자료구조
- FairMOT
- 문제집
- Lowest Common Ancestor
- PyCharm
- LCA
- 백준 11437
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함