티스토리 뷰

import torch
import torchvision
import numpy as np
import onnxruntime

print(f"onnxruntime.get_device(): {onnxruntime.get_device()}")

model = torchvision.models.resnet18(weights=None)
model.eval()

input_on_cpu = torch.randn((1, 3, 224, 224), dtype=torch.float32)
torch.onnx.export(model, input_on_cpu, "resnet18.onnx", input_names=['input'], output_names=['output'])

session = onnxruntime.InferenceSession("resnet18.onnx", providers=['CUDAExecutionProvider'])
print(f"session.get_providers(): {session.get_providers()}")

 

위 코드를 Colab에서 실행시켜봤다.

 

 

GPU로 추론되려면 session.get_providers()를 호출했을때 CUDAExe... 가 나와야하는데 CPUExe... 만 나오고 안나온다. 

댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/10   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함