논문 링크 IoU-aware single-stage object detector for accurate localization Single-stage object detectors have been widely applied in many computer vision applications due to their simpleness and high efficiency. However, the … www.sciencedirect.com Single-stage object detectors(YOLO Series, Centernet 등)는 Classification score와 Localization accuracy 간에 낮은 Correlation을 보인다. 그리고, 이는 디텍션 모델의 성능을 저하시키는 원인..
Object Detection 모델을 Real-world Applications에 실제로 적용/배포해보았다면, 예상치도못한 False positives(FPs)를 굉장히 많이 관측할 수 있을 것이다. 특정 태스크에서는 True positive(TP)를 증가시키는 것 보다 차라리 TP를 조금 감소시키고 FP를 크게 줄이는 방법이 더 좋은 선택이 될 수 있다. 물론 TP를 증가시키고, FP도 줄일 수 있는 방법이 베스트다. 여기서, TP는 Positive sample(Foreground)을 잘 찾은 케이스이고, FP는 Negative sample을 Background 혹은 Negative sample을 Positive sample로 잘못 예측한 케이스이다. TP는 정탐, FP는 오탐으로 생각하면된다. Fal..
Detection 기반의 Tracking 방법 중 대표적인 방법인 SORT의 코드와 논문을 보다보면 Kalman Filter를 사용하여 트래킹하는 객체의 위치를 추정함을 알 수 있다. 그런데, 이 Kalman Filter가 그냥 가져다 쓰는 건 쉬울 수 있어도 이해하기란 참 어려웠다. 관련 포스트를 몇개 읽어보고 "칼만 필터는 어렵지 않아" 라는 책도 읽어보았지만, 대강의 큰 그림은 이해가 될랑~말랑 하지만 디테일하게는 이해하지 못했다... 개발을 하며 잘 구현된 알고리즘을 가져다 쓰는 걸 좋아하는 입장이지만, 제대로 이해하지 못하고 가져다 쓰기에는 너무 찜찜하다. 과연 이 복잡한 Kalman Filter가 Tracking 알고리즘의 얼마나 큰 영향을 미칠까?? 이를 제거하였을때 저하되는 성능이 극히 미..
https://github.com/ifzhang/ByteTrack GitHub - ifzhang/ByteTrack: ByteTrack: Multi-Object Tracking by Associating Every Detection Box ByteTrack: Multi-Object Tracking by Associating Every Detection Box - GitHub - ifzhang/ByteTrack: ByteTrack: Multi-Object Tracking by Associating Every Detection Box github.com https://arxiv.org/abs/2110.06864 ByteTrack: Multi-Object Tracking by Associating Every D..
https://www.coursera.org/learn/introduction-to-machine-learning-in-production/lecture/PhRTU/steps-of-an-ml-project Steps of an ML Project - Week 1: Overview of the ML Lifecycle and Deployment | Coursera Video created by deeplearning.ai for the course "Introduction to Machine Learning in Production". This week covers a quick introduction to machine learning production systems focusing on their re..
PyTorch Lightning 기반으로 프로젝트를 구현중이다. Logger를 TensorBoard로 세팅하고 학습시키니 TensorBoard 파일에 hp metric이란 그래프가 떡하니 출력된다. 관련 글들을 좀 찾다보니 하이퍼 파라미터 서치에 도움을 주기 위한 그래프 같은데 굳이 출력할 필요가 없었다. 불필요한 정보가 출력되고 있으면 괜히 뭔가 마음이 불편하다. 근데 PyTorch Lightning이 캡슐화가 너무 잘 돼있다보니 어딜 건드려야 이 그래프를 지울 수 있는지 모르겠다... 구글링을 해보니 이미 나와 같은 생각을 하신 분이 계셨다. 해결법은 간단했다. TensorBoardLogger 클래스의 객체를 생성할때 함수인자 default_parameter 를 False로 세팅해주면 된다. logg..
https://docs.opencv.org/master/de/d25/imgproc_color_conversions.html OpenCV: Color conversions See cv::cvtColor and cv::ColorConversionCodes Todo:document other conversion modes RGB \(\leftrightarrow\) GRAY Transformations within RGB space like adding/removing the alpha channel, reversing the channel order, conversion to/from 16-bit RGB color (R5:G6 docs.opencv.org RGB2YUV YUV2RGB
SAVING AND LOADING WEIGHTS https://pytorch-lightning.readthedocs.io/en/latest/common/weights_loading.html Saving and loading weights — PyTorch Lightning 1.5.0dev documentation Saving and loading weights Lightning automates saving and loading checkpoints. Checkpoints capture the exact value of all parameters used by a model. Checkpointing your training allows you to resume a training process in c..
bounding box의 위치와 너비, 높이를 regression 하기 위한 수식이 각각 다르다. PyTorch 로 구현하고자 한다면 수식을 잘 보고 구현해야함 https://alexeyab84.medium.com/scaled-yolo-v4-is-the-best-neural-network-for-object-detection-on-ms-coco-dataset-3 bx와 by는 YOLOv4 페이퍼에서 언급됐듯이 grid sensitivity 를 고려하여 수정된 것인데... bw와 bh가 왜 저렇게 바뀐지 이유는 못찾았다. YOLOv5 도 Scaled-YOLOv4 의 수식을 따라가는듯하다. 알고보니 Scaled-YOLOv4 가 YOLOv5를 따른 것... https://github.com/ultralytic..
- Total
- Today
- Yesterday
- Lowest Common Ancestor
- 인공지능을 위한 선형대수
- 단축키
- MOT
- cosine
- C++ Deploy
- 백준 11053
- LCA
- 백준 1766
- ㅂ
- 파이참
- 자료구조
- 백준 11437
- 조합
- 백트래킹
- 가장 긴 증가하는 부분 수열
- FairMOT
- 위상 정렬 알고리즘
- 순열
- 백준
- 문제집
- PyCharm
- 이분탐색
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |