또 50달러를 추가 결제했다... 지금까지 총 150달러를 태웠다. 슬슬 부담된다. 네트워크 스토리지 200기가바이트에 4090 1대로 주로 학습중이다... 참고로 학습중인 모델은 Qwen2vl7b다. 입력 이미지 사이즈에 대한 튜닝을 통해 메모리를 조금이라도 줄여줬더니만 배치 사이즈1로 간신히 돌아간다. 지금 학습 이미지가 300장 이정도 밖에 안되는데 꽤나 미친 성능을 보여준다. 한 1만장, 5만장, 10만장 정도 되면 어느정도로 성능이 나올지 너무 궁금하다. 아직까지는 간혹다가 LLM특유의 할루시네이션 마냥 이상한 값을 반환한다거나 특정 값을 계속해서 반환하는 문제가 있다. 나는 OCR Task를 수행하도록 파인튜닝 시켜보고 있는데 예를 들면 아래 처럼 값이 나올때가 있다. 파인튜닝을 시키는 족족..
https://developer0hye.tistory.com/792 unsloth/LaTeX_OCR 로 5 에폭 파인튜닝 시킨 Qwen2VL7b 또한 아쉬울 따름https://developer0hye.tistory.com/789 unsloth/LaTeX_OCR 로 1 에폭 파인튜닝 시킨 Qwen2VL7b 는 아쉬울 따름https://colab.research.google.com/drive/1whHb54GNZMrNxIsi2wm2EY_-Pvo2QyKh?usp=sharing Qwen2 Vision Finetuning Unsloth - Maths OCR.ipynbdeveloper0hye.tistory.com ㅎㅎㅎㅎ 저번 글에서 썼다싶이 이번엔 r값을 올려서 학습시켜봤다. 이게 정답이였을까? 아니다!!! 물론 ..
https://developer0hye.tistory.com/789 unsloth/LaTeX_OCR 로 1 에폭 파인튜닝 시킨 Qwen2VL7b 는 아쉬울 따름https://colab.research.google.com/drive/1whHb54GNZMrNxIsi2wm2EY_-Pvo2QyKh?usp=sharing Qwen2 Vision Finetuning Unsloth - Maths OCR.ipynbColab notebookcolab.research.google.com 를 따라서 runpod 을 이용해서 VLM인 Qwen2vl7b를 파인튜닝 시켜developer0hye.tistory.com Loss 는 0.2대까지 감소했다.{'loss': 1.9224, 'grad_norm': 0.7360253930091..
보호되어 있는 글입니다.
50달러 추가 충전 여러분도 써보십시오. 아래링크로 들어가서 가입과 충전을 해주시면... 감사드리겠습니다... 꾸벅... https://runpod.io?ref=hxy1q5uk RunPod - The Cloud Built for AIDevelop, train, and scale AI models in one cloud. Spin up on-demand GPUs with GPU Cloud, scale ML inference with Serverless.www.runpod.io
https://colab.research.google.com/drive/1whHb54GNZMrNxIsi2wm2EY_-Pvo2QyKh?usp=sharing Qwen2 Vision Finetuning Unsloth - Maths OCR.ipynbColab notebookcolab.research.google.com 를 따라서 runpod 을 이용해서 VLM인 Qwen2vl7b를 파인튜닝 시켜봤다. 예제 코드를 좀 수정해서 1에폭 학습을 돌려봤다. 로그는 아래와 같이 나왔다.{'loss': 1.9224, 'grad_norm': 0.7354275584220886, 'learning_rate': 4e-05, 'epoch': 0.0}{'loss': 1.9949, 'grad_norm': 0.74662840366363..
https://colab.research.google.com/drive/1whHb54GNZMrNxIsi2wm2EY_-Pvo2QyKh?usp=sharing Qwen2 Vision Finetuning Unsloth - Maths OCR.ipynbColab notebookcolab.research.google.com 위 코드 따라서 unsloth 기반으로 qwen2vl 7b모델을 unsloth/LaTeX_OCR 데이터셋으로 학습시켜보고있다. (수식 이미지, Latex format으로 변환된 식=Label) 이렇게 Pair로 데이터셋이 존재한다. 여기서 뭘 주의해야하냐... 800x800 해상도 크기의 이미지와 아웃풋 텍스트의 길이가 500을 초과하는 샘플들이 존재한다. 그래서 학습 돌다가 이런 샘플들에 대..
AttributeError: module 'PIL.Image' has no attribute 'ExifTags'.VLM 파인튜닝 시도중에 위와 같은 에러를 마주했다. https://huggingface.co/datasets/HuggingFaceM4/COCO/discussions/2 HuggingFaceM4/COCO · AttributeError: module 'PIL.Image' has no attribute 'ExifTags'. huggingface.co 원인은 PIL version 문제였다. 9.4.0 이상의 PIL을 설치해주면 된다.pip install "Pillow>=9.4.0"
https://developer0hye.tistory.com/784 처음 보는 Parquethttps://huggingface.co/docs/hub/datasets-adding#which-file-format-should-i-use Uploading datasetsUploading datasets The Hub is home to an extensive collection of community-curated and research datasets. We encourage you to share your dataset to the Hub todeveloper0hye.tistory.com 이런 글을 올렸었다. 이래서... 데이터를 처음부터 Parquet으로 올려야되구나! 하며 Parquet 공부하고 Par..
- Total
- Today
- Yesterday
- 백준
- 인공지능을 위한 선형대수
- 순열
- 가장 긴 증가하는 부분 수열
- MOT
- 단축키
- LCA
- 백준 1766
- ㅂ
- FairMOT
- 이분탐색
- 파이참
- PyCharm
- 백트래킹
- cosine
- 위상 정렬 알고리즘
- 백준 11437
- Lowest Common Ancestor
- 백준 11053
- 문제집
- C++ Deploy
- 자료구조
- 조합
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |