github.com/AlexeyAB/darknet/issues/232 Resizing : keeping aspect ratio, or not · Issue #232 · AlexeyAB/darknet Hi, In your implementation of Darknet, when resizing the image, the aspect ratio of the image is not kept in the function get_image_from_stream_resize: darknet/src/image.c Line 627 in 5a2efd5 image... github.com github.com/pjreddie/darknet/issues/1354 Cross Entropy for YOLOv3 · Issue #1..
MobileNetv1은 대표적인 컨볼루셔널 레이어 기반의 경량(Lightweight) 네트워크입니다. Depthwise Convolution과 Pointwise Convolution을 적절히 사용함으로써 타 네트워크(vgg, googlenet등) 대비 크게 적은 파라미터수와 연산량으로 대등한 인식 성능을 보이며 세간의 관심을 끌었습니다. 논문 링크(Official) arxiv.org/abs/1704.04861 MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications We present a class of efficient models called MobileNets for mobile and embedded vis..
일반적으로 Depthwise Convolutional Layer는 CNN 모델의 연산량과 파라미터 수를 줄이기 위하여 제안되었으나, 실제로 이를 사용하여 모델을 구현한 뒤에 속도를 측정해보면 줄어드는 연산량 대비 고속화의 정도가 크지 않습니다. 특히, 저의 경우 Depthwise Convolutional Layer가 포함된 CNN 모델을 학습시키려하니, Forward 및 Backward 과정에서 비정상적으로 긴 시간이 걸리는 것을 확인하였습니다. 이러한 경우 코드상에서 Forward 및 Backward 과정 이전에 아래의 코드를 작성해주면 소요시간을 단축시킬 수 있습니다. torch.backends.cudnn.deterministic = False torch.backends.cudnn.benchmark ..
def img2tensor(img): #the format of img needs to be bgr format img = img[..., ::-1] #bgr2rgb img = img.transpose(2, 0, 1) #(H, W, CH) -> (CH, H, W) img = np.ascontiguousarray(img) tensor = torch.tensor(img, dtype=torch.float32) return tensor
MOT 데이터셋은 MOT15, MOT16, MOT17, MOT20이 존재합니다. 여기서, MOT17은 MOT16과 동일한 Sequence들로 구성되어 있습니다. 하지만, Annotation이 보다 정확하게 돼 있으므로 MOT17을 사용하는 것을 권장합니다. MOT15 Directory Structure 2DMOT2015/ test/ ADL-Rundle-1 det img1 000001.jpg ... ADL-Rundle-3 AVG-TownCentre ETH-Crossing ETH-Jelmoli ETH-Linthescher KITTI-16 KITTI-19 PETS09-S2L2 TUD-Crossing Venice-1 train/ ADL-Rundle-6 det gt gt.txt img1 000001.jpg .....
본 글은 MOT20: A benchmark for multi object tracking in crowded scenes를 읽고 내용을 정리된 글입니다. MOT dataset에는 Task에 따라 2가지 Ground Truth Format이 존재합니다. Task는 Tracking, Detection으로 나뉩니다. Detection 다음의 Text는 Detection Task의 Ground Truth 예시입니다. 1, -1, 794.2, 47.5, 71.2, 174.8, 1, -1, -1 1, -1, 164.1, 19.6, 66.5, 163.2, 1, -1, -1 1, -1, 875.4, 39.9, 25.3, 145.0, 1, -1, -1 2, -1, 781.7, 25.1, 69.2, 170.2, 0, -1..
gpu: titan xp gpu driver version: Driver Version: 441.22(cuda 설치 시 설치되는 driver) cuda version: 10.2.1 cudnn version: 7.6.5.32 0. anaconda 설치(Python도 함께 설치됨) 1. conda 환경 생성 conda create -n FairMOT python=3.7 conda activate FairMOT 2. C/C++ 빌드 툴 설치 https://visualstudio.microsoft.com/ko/thank-you-downloading-visual-studio/?sku=BuildTools&rel=16 3. Cython 설치 pip install --upgrade cython 4. cython-bbo..
본 게시글은 해당 링크를 참고하여 작성된 게시글입니다. Multi GPUs를 사용하여 Model을 학습시키고 Weights을 저장하면 모든 Parameter의 Key값에 "module."이 붙은채로 저장됩니다. 그런데, 이렇게 되면 Model의 멤버 변수(self.*)를 클래스 외부에서 접근할때 코딩 시 객체명.* 으로 접근하지 못하고 객체명.module.*과 같이 "module"을 붙여주어야 접근이 가능해집니다. 이렇게 되면, 코드를 작성할때 항상 module의 존재를 신경써주어야 합니다. 문제를 파악해봅시다. module이 붙는 이유는 Model을 병렬화 시켰기 때문이고, Model을 병렬화 시켰던 이유는 Load하고자하는 Weights의 Key값에 'module.'이 붙었기 때문입니다. 해결 방법은..
import torch import torch.nn as nn import torchvision.models as models class CNN(nn.Module): def __init__(self, ): super(CNN, self).__init__() self.backbone = models.resnet18(pretrained=True) for p in self.backbone.parameters(): p.requires_grad = True self.fc = nn.Linear(512, 2) def forward(self, x): x = self.backbone.conv1(x) x = self.backbone.bn1(x) x = self.backbone.relu(x) x = self.backbone...
- Total
- Today
- Yesterday
- FairMOT
- ㅂ
- C++ Deploy
- 백트래킹
- 순열
- 백준 1766
- 백준
- 이분탐색
- 가장 긴 증가하는 부분 수열
- 파이참
- 조합
- 단축키
- 위상 정렬 알고리즘
- 인공지능을 위한 선형대수
- PyCharm
- cosine
- Lowest Common Ancestor
- 자료구조
- LCA
- MOT
- 문제집
- 백준 11053
- 백준 11437
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |