ECCV2024에 "When Pedestrian Detection Meets Multi-Modal Learning: Generalist Model and Benchmark Dataset" 란 제목의 논문이 Accept 된 것을 확인했습니다. https://arxiv.org/pdf/2407.10125 https://github.com/BubblyYi/MMPedestron Multi-Modal 이런 키워드는 고사하고 RGB 도메인의 Human Detection 성능을 보았을때 기존 Vision Foundation Model이라 할 수 있는 InternImage 보다 훨씬 작은 모델 사이즈로 유사한 성능을 보이고 있습니다. https://github.com/developer0hye/yolov8-vs-yolo..
https://huggingface.co/black-forest-labs/FLUX.1-dev black-forest-labs/FLUX.1-dev · Hugging FaceFLUX.1 [dev] is a 12 billion parameter rectified flow transformer capable of generating images from text descriptions. For more information, please read our blog post. Key Features Cutting-edge output quality, second only to our state-of-the-art model FLUXhuggingface.co https://huggingface.co/black-for..
https://github.com/developer0hye/yolov8-vs-yolo11/tree/main GitHub - developer0hye/yolov8-vs-yolo11: The average precision per class for the YOLOv8 and YOLO11 pre-trained on the COCO datasThe average precision per class for the YOLOv8 and YOLO11 pre-trained on the COCO dataset - developer0hye/yolov8-vs-yolo11github.com 정리 후 느낀점은 요새 핫한 LLM, VLM 세계에서는 스케일링을 통해 AGI로 향해 가고 있다면(sLLM도 있긴 하지만), YOLO..
https://github.com/developer0hye/coco-pretrained-yolov8-ap-per-class GitHub - developer0hye/coco-pretrained-yolov8-ap-per-class: The Average Precision per class for the YOLOv8 model pre-trained onThe Average Precision per class for the YOLOv8 model pre-trained on the COCO dataset - developer0hye/coco-pretrained-yolov8-ap-per-classgithub.com mAP만 보기엔 정보가 너무 함축돼있어서 다른 클래스에 대한 여러 메트릭 값을 csv파일로 저장하여..
Sapiens 프로젝트 페이지 Sapiens | MetaFoundation models for human vision tasksabout.meta.com Sapiens 깃허브 Repo GitHub - facebookresearch/sapiens: High-resolution models for human tasks.High-resolution models for human tasks. Contribute to facebookresearch/sapiens development by creating an account on GitHub.github.com Sapiens Arxiv Sapiens: Foundation for Human Vision ModelsWe present Sapiens, a family ..
심심하면 timm 프로젝트에 어떤 모델들 추가되는지 확인하는데 며칠전에 보다가 vit_so400m~ 이런 모델이 있는 걸 알게됐다. https://github.com/huggingface/pytorch-image-models/blob/main/timm/models/vision_transformer.py pytorch-image-models/timm/models/vision_transformer.py at main · huggingface/pytorch-image-modelsThe largest collection of PyTorch image encoders / backbones. Including train, eval, inference, export scripts, and pretrained weig..
진짜 헛소리로 가득찬 글이니 너무 진지하게 받아들이지 말아주세요.회사에서 Vision Recognition Model을 학습시킬때 만장, 2만장, 3만장 정도 학습 데이터를 구축해도 불구하고 왜 이런 케이스에서 오탐으로 분류되지 싶은... 상식적으로 이해 안되는 샘플들이 너무 많다. 팀원 중 한 분의 아기가 커가는 모습을 보고 문득 생각이 들었다. 아기가 말하고 어느정도 상황을 인지하기 시작하는 게 3~4살은 돼야하는 거 같은데 이때 아기가 눈을 뜬 시간에 받아들이는 시각적 신호에 대한 양을 생각해보면 적어도 하루에만 8시간 -> 28,000초 x 120 FPS(120, 144, 240 hz 차이를 느끼는 사람들이 있는 걸 생각해 봤을때 인간의 눈을 샘플링 하면 최소 이정도는 될 거 같다.) x 4K ..
Making Convolutional Networks Shift-Invariant Again https://richzhang.github.io/antialiased-cnns/ Making Convolutional Networks Shift-Invariant Again.R. Zhang. In ICML 2019.richzhang.github.io Video에 대해 detection 모델 추론시켜보면 프레임 단위로 큰 차이가 없는 거 같은데 객체가 살짝 이동했다고해서, 혹은 코덱에 의해 발생하는 약간의 열화에도 결과값에 대한 변화가 굉장히 큰 경우를 자주 보곤했다. 뭐 이론적으로 배울때는 CNN이 Pooling에서 어쩌구 저쩌구..., Strided Convolution에서 어쩌구 저쩌구... 하면서 이동..
1. Non-DDP 코드를 Claude에게 던지며 구현하라고 시킨다.2. 지적한다.3. 지적한다.4. 괜히 시비건다.5. 잠깐 다른길로 새어본다.6. 혼낸다.7. 또 혼낸다.8. 괜히 시비건다.9. 괜히 시비건다.10. torchrun ~ 으로 실행시킨다. 11. 된다. 와 옛날에 copilot, chatgpt, claude 없을때는 며칠을 애먹었던 건데... 이렇게 손쉽게 되다니... 세상 너무 편해졌다!
https://dacon.io/competitions/official/236050/codeshare?page&dtype&ptype&fType&category 월간 데이콘 TV 손동작 제어 인식 AI 경진대회 - DACON조회수 1,770 댓글수 5 일 년 전dacon.io https://pytorch.org/vision/stable/models.html#video-classification Models and pre-trained weights — Torchvision 0.18 documentationShortcutspytorch.org torchvision official r(2+1)d networkhttps://github.com/pytorch/vision/blob/main/torchvision..
- Total
- Today
- Yesterday
- 위상 정렬 알고리즘
- 가장 긴 증가하는 부분 수열
- FairMOT
- 단축키
- 문제집
- 백준 1766
- 조합
- 파이참
- 인공지능을 위한 선형대수
- 백준
- LCA
- 백트래킹
- 이분탐색
- 자료구조
- 백준 11437
- Lowest Common Ancestor
- 백준 11053
- cosine
- MOT
- C++ Deploy
- 순열
- ㅂ
- PyCharm
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |