티스토리 뷰
https://github.com/cap-ntu/ML-Model-CI/issues/37
onnxruntime how to to specify a GPU device? · Issue #37 · cap-ntu/ML-Model-CI
I'm afraid this is an issue that we cannot specify a GPU device to test. Currently, we limited the GPU usage by setting flag os.environ["CUDA_VISIBLE_DEVICES"]="0" in the server, but I think that's...
github.com
import onnxruntime as ort
model_path = '<path to model>'
providers = [
('CUDAExecutionProvider', {
'device_id': 0,
}),
'CPUExecutionProvider',
]
session = ort.InferenceSession(model_path, providers=providers)
ort.InferenceSession(onnx_dir, providers=['CUDAExecutionProvider'], provider_options=[{'device_id': 2}])'Deep Learning' 카테고리의 다른 글
| Wandb 강제 종료(Ctrl+C) 후 잦은 에러 메시지 출력 문제 해결법 (3) | 2023.11.08 |
|---|---|
| [Deep Learning] 20231105 학습시 배치 사이즈에 관하여... (0) | 2023.11.05 |
| 딥 러닝 프로젝트 CI 적용 사례 (0) | 2023.10.16 |
| [Deep Learning] 2D Human Pose Estimation을 한 줄로! onepose (2) | 2023.10.05 |
| [Deep Learning] Pose Estimation 데이터셋별 annotation 예시 (0) | 2023.09.30 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 파이참
- ㅂ
- 인공지능을 위한 선형대수
- MOT
- PyCharm
- 단축키
- 백준 1766
- C++ Deploy
- 이분탐색
- 가장 긴 증가하는 부분 수열
- Lowest Common Ancestor
- 백준
- LCA
- 백준 11053
- 순열
- 위상 정렬 알고리즘
- cosine
- FairMOT
- 백준 11437
- 문제집
- 백트래킹
- 조합
- 자료구조
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
글 보관함
