1. 저기 : 클릭 2. Edit 클릭 3. 저기 수정후에 Update 클릭 pod 따로 재생성안해도 이미 생성되어있는 pod에 그대로 적용됨! https://runpod.io/?ref=hxy1q5uk RunPod - The Cloud Built for AIDevelop, train, and scale AI models in one cloud. Spin up on-demand GPUs with GPU Cloud, scale ML inference with Serverless.www.runpod.io RunPod 사용시 이 링크로 들어가셔서 가입 후 결제해서 사용해주신다면 저에게도 큰 힘이 됩니다. 감사합니다.
import osos.environ["HF_HOME"] = "/workspace/"import torchfrom transformers import pipelinetransformers import하기전에 환경변수 HF_HOME을 원하는 위치로 지정하면 된다. export나 bashrc에 기록하는 것도 방법이다.https://daeun-computer-uneasy.tistory.com/145?category=1080901 [Linux] Huggingface model default 저장 경로 (./.cache) 변경하기 (HF_HOME 지정)허깅페이스 모델들을 마구잡이로 다운 받다보면,, 디폴트 저장 경로가 /home/daeun/.cache/huggingface 이런 식으로 home 폴더로 설정되어 있는..
소개 페이지https://huggingface.co/briaai/RMBG-2.0 briaai/RMBG-2.0 · Hugging FaceBRIA Background Removal v2.0 Model Card RMBG v2.0 is our new state-of-the-art background removal model, designed to effectively separate foreground from background in a range of categories and image types. This model has been trained on a carefully selectehuggingface.co 데모 페이지https://huggingface.co/spaces/briaai/BRIA-RMBG..
pip install 'onnxruntime-gpu 2024년 11월10일 기준 분명 1.20버전이랑 1.19 버전이랑 recommended cuda, cudnn 버전이 큰 차이가 없어 보이는데 이상하게 1.20 버전으로 설치하면 cuda를 제대로 인식못한다. 참고로 pytorch/pytorch:2.4.1-cuda12.4-cudnn9-devel 이 이미지 base로 하다가 겪은 문제다. https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html NVIDIA - CUDAInstructions to execute ONNX Runtime applications with CUDAonnxruntime.ai
Language Models are Few-Shot Learners LLM을 사용하며 대체 얼마만큼 예시를 줘야하나 궁금했다. 산학 과제를 수행해온 연구실의 교수님과 학생분께도 여쭤봤는데 제로샷, 1~2샷 정도만 해보고 더는 안해봤다는 답을 얻기도했다. "최고의 프롬프트 엔지니어링 강의"(김진중(골빈해커) 지음)책에 관련 내용과 논문이 나와있어서 블로그에 업로드 해둠! 근데... 다 읽기는 귀찮은데?! 도와줘요 챗지피티! 적어도 10개, 많게는 32개 정도 쓸 수 있을 거 같다.음 근데 example 32개면 너무 길어지지 않으려나 걱정된다.
예시) 2, 3번 gpu 에만 모델 업로드하고 싶다 그러면 import os 를 최상단에 해주고 visible devices를 아래와 같이 정의하면 된다.(정확히는 최상단에 해주기보다 gpu가 사용되는 라이브러리 import 전에 해줄 것!) import osos.environ["CUDA_VISIBLE_DEVICES"] = "2, 3"import transformers... 꼭 저렇게 하드코딩 할 필요는 없어 보이고 python실행할때 붙여줘도 될 거 같다.CUDA_VISIBLE_DEVICES=2,3 python ~ device_map 은 그냥 "auto" 로 놔두면 된다. 더 좋은 방법이 있을 거 같은데 일단 이렇게 해서 됐다.
https://modelscope.cn/studios/stepfun-ai/GOT_official_online_demo GOT官方DemoGOT-OCR-2.0官方在线体验Demo,通过统一的端到端模型实现 OCR-2.0www.modelscope.cn 위 사이트에서 GOT OCR 2.0 을 돌려볼 수 있다. 성능이 좋다는데, 한국어도 잘 인식할까? Document 문자는 인식은 되는거로 보이나, 띄어쓰기를 인식 못하는 거 같다. 어쨌든 한국어가 학습데이터로 있기는 한 거 같다. 논문 읽어보면 나오려나 Natural Image의 경우 한국어 인식을 잘 못하는 거 같다.
해당 게시글은 2024년 10월 26일에 작성된 글입니다. 작성 날짜에 유의하여 보시길 바랍니다.https://lk.instruct.kr/ LogicKor | 한국어 언어모델 다분야 사고력 벤치마크LogicKor은 한국어 언어모델의 다분야 사고력을 측정하는 벤치마크입니다. 추론, 수학, 글쓰기, 코딩, 이해, 문법 등 다양한 분야의 사고력을 측정합니다.lk.instruct.kr Api호출식이 아니라 모델 직접 다운로드 받아서 할 거라면 비공개 모델란 체크 해제하고 찾아보면 될듯하다.https://wandb.ai/wandb-korea/korean-llm-leaderboard/reports/-LLM---Vmlldzo3MzIyNDE2?accessToken=95bffmg3gwblgohulknz7go3h66k11..
깔짝 깔짝 LLM, VLM 에 관심을 기웃 기웃 거려보고 있습니다. 아직 잘 모르고 예제 코드만 돌려본 정도 입니다. 먼저 Llama3 8B 모델의 경우 모델 웨이트 업로드에만 15~16GB 가 소요됐었습니다. 이러면... 집에서 3070 8GB GPU로 이것 저것 뭔가 해보려는 저는 할 수가 없습니다. 모델 일부만 GPU에 업로드 한다거나? 하는 방식이 있지 않을까 싶은데 아직 찾아보지는 않았습니다. 보니까 llm 모델들은 대체로 4bit quantization 모델도 같이 공개가 되는 경우가 많더라고요! 이중에는 서울과학기술대학교 주도로 학습되고 공개된 웨이트가 존재하였습니다. https://huggingface.co/MLP-KTLim/llama-3-Korean-Bllossom-8B-gguf-Q4_..
https://developer0hye.tistory.com/753 돌려보고 싶은데 귀찮아서 망설이고 있는 Human Detection Model MMPedestron (1)ECCV2024에 "When Pedestrian Detection Meets Multi-Modal Learning: Generalist Model and Benchmark Dataset" 란 제목의 논문이 Accept 된 것을 확인했습니다. https://arxiv.org/pdf/2407.10125 https://github.com/BubblyYi/MMPedestron Multi-Moddeveloper0hye.tistory.com 오류가 막~막~ 난다. https://www.youtube.com/watch?v=R_YdAer_H7..
- Total
- Today
- Yesterday
- 백트래킹
- 백준 1766
- 백준 11437
- 백준 11053
- 문제집
- 단축키
- 백준
- 조합
- C++ Deploy
- 이분탐색
- 파이참
- 인공지능을 위한 선형대수
- 순열
- Lowest Common Ancestor
- ㅂ
- MOT
- cosine
- 가장 긴 증가하는 부분 수열
- LCA
- 위상 정렬 알고리즘
- PyCharm
- 자료구조
- FairMOT
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |