paper: https://arxiv.org/abs/2406.09414 github project: https://github.com/DepthAnything/Depth-Anything-V2 아래 페이지에서 데모를 아주 쉽게 돌려볼 수 있다. https://huggingface.co/spaces/depth-anything/Depth-Anything-V2 Depth Anything V2 - a Hugging Face Space by depth-anythingRunning on Zerohuggingface.co 논문 진짜 대충 쓱 봤는데 핵심은 대충 이렇게 정리 되는 거 같다. Depth 이미지의 경우 Real-world 데이터(=이미지)에 대한 정답(GT) 만들기 어렵다. 대신 synthetic 데이터 ..
LLM Chain of Thought LLM Chain of Thought요즘 LLM 프롬프트 엔지니어링에 관심이 생겨 김진중(골빈해커)님께서 작성하신최고의 프롬프트 엔지니어링 강의란 책을 읽고 있습니다. 거기서 몰랐던 용어와 개념을 알게되어 작성합니다.CoT(developer0hye.tistory.com 이전 글에서 CoT에 대해 다루었습니다. 가만 생각해보면 우리 조차도 문제 해결법을 몰라서 CoT를 수행하도록 문제 해결법을 단계적으로 알려주기가 어려울수도 있을 것 같습니다. 아니면 문제 해결법 타이핑 하는 게 심히 귀찮을수도 있겠죠. 이때 해볼 수 있는 게 Zero shot CoT 입니다. 단지 프롬프트에 "단계별로 생각해보아라"라는 의미를 담아 주는 것입니다. 연구적으로 관심이 있으신분은 아래..
요즘 LLM 프롬프트 엔지니어링에 관심이 생겨 김진중(골빈해커)님께서 작성하신최고의 프롬프트 엔지니어링 강의란 책을 읽고 있습니다. 거기서 몰랐던 용어와 개념을 알게되어 작성합니다.CoT(Chain of Thought) 는 LLM 에게 문제 해결 과정에 필요한 생각, 처리 방식등에 대해 단계별로 논리적으로 설명함으로써 문제를 푸는 혹은 데이터를 처리하는 방식을 더 잘 이해시키기 위한 프롬프트 엔지니어링 방식입니다. 전지전능하신 LLM님의 힘을 너무 믿고 (입력, 출력) 쌍으로 학습시키는 것이 저의 일반적인 LLM 이용 행태였다면 앞으로는 상황에 따라 적절하게 CoT형태로 프롬프팅을 해보려합니다. 잠깐! 위는 예시이긴 하지만 한 번 20240609일자의 GPT4o 에게 한 번 왼쪽 프롬프트로 정답을 맞출 ..
import torchimport torchvisionimport numpy as npimport onnxruntimeprint(f"onnxruntime.get_device(): {onnxruntime.get_device()}")model = torchvision.models.resnet18(weights=None)model.eval()input_on_cpu = torch.randn((1, 3, 224, 224), dtype=torch.float32)torch.onnx.export(model, input_on_cpu, "resnet18.onnx", input_names=['input'], output_names=['output'])session = onnxruntime.InferenceSession("r..
데스크탑을 맞춘지 3년 5개월 정도가 지났다. 개인적으로 RGB LED 로 범벅된 제품을 진짜로 싫어하는데 사용자가 못끄겠거니 하고 LED 전원 차단 기능에 대해 안알아보고 있다가 요즘들어 숙면에 너무 방해받는다는 생각이 들어서 방법을 알아봤다. 아래 링크에서 MSI Center설치한다음에, https://www.msi.com/Landing/MSI-Center MSI CenterThe MSI Center takes optimization to the next level with easily adjustable system modes and resources for a wide range of scenarios and needs.www.msi.com 미스틱 라이트라는 플러그인 설치하고 LED 스타일에서 ..
https://github.com/lyuwenyu/RT-DETR/pull/271 modify variable name related to multi scale features by developer0hye · Pull Request #271 · lyuwenyu/RT-DETR@lyuwenyu Thanks for sharing great works! I made a minor change to the variable name related to multi-scale features to improve clarity.github.com 변수명이 논문에서 다루는 의미와 좀 다르게 작성돼있어서 변수명 수정 후 PR 날림 아직 query selection 쪽은 평일에 너무 바빠서 못 파보고 있다.
* 이 글은 특히 진짜 잘 모르고 쓴 글이니 틀린 부분이 있으면 댓글로 가르침을 주시면 정말 감사드리겠습니다. https://developer0hye.tistory.com/713 RT DETR의 백본은 무엇일까https://arxiv.org/pdf/2304.08069.pdf https://github.com/lyuwenyu/RT-DETR GitHub - lyuwenyu/RT-DETR: [CVPR 2024] Official RT-DETR (RTDETR paddle pytorch), Real-Time DEtection TRansformer, DETRs Beat YOL [CVPR 2024] Official RT-DETR (RTDETR paddle pytorch),developer0hye.tistory.com ..
https://developer0hye.tistory.com/713 RT DETR의 백본은 무엇일까 https://arxiv.org/pdf/2304.08069.pdf https://github.com/lyuwenyu/RT-DETR GitHub - lyuwenyu/RT-DETR: [CVPR 2024] Official RT-DETR (RTDETR paddle pytorch), Real-Time DEtection TRansformer, DETRs Beat YOL [CVPR 2024] Official RT-DETR (RTDETR paddle pytorch), developer0hye.tistory.com 백본을 알아봤으니 이제 Encoder는 어떤식으로 구현했나 봐봐야겠다. 궁금한 부분은 바로 Efficient..
https://github.com/openai/simple-evals GitHub - openai/simple-evals Contribute to openai/simple-evals development by creating an account on GitHub. github.com https://twitter.com/OpenAI/status/1778574613813006610?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1778574613813006610%7Ctwgr%5Eb468511aa942e98299ae5667659ce43aa8e803c4%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.zdnet.com%2Farticle%2F..
- Total
- Today
- Yesterday
- ㅂ
- 단축키
- 파이참
- 조합
- 백준 11437
- 백준 1766
- 가장 긴 증가하는 부분 수열
- 위상 정렬 알고리즘
- FairMOT
- 순열
- C++ Deploy
- MOT
- LCA
- 자료구조
- Lowest Common Ancestor
- 백트래킹
- PyCharm
- 이분탐색
- 백준
- 문제집
- cosine
- 백준 11053
- 인공지능을 위한 선형대수
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |