You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
-
TorchServe 사용하기
Description: TorchServe를 사용해 모델 Serving
시작일: 2021년 4월 30일
실험자: 재우 선
제안자: 재우 선
종료일: 2021년 5월 2일
진행상황: 완료
카테고리: Deploying
문제 정의 (왜 하는지?)
해결 아이디어
Docker 사용하기하나의 서버에 하나의 모델만 서빙하기 때문에.. 또한 AWS 프리티어로 사양이..
Kubernetes 사용하기사양문제..
Tensorflow serving / Onnx ServingPytorch를 사용하기 때문에 모델을 변경해야하는 부분들이 필요
비교적 최근에 나온 모듈로 pytorch를 손쉽게 서비할 수 있음
진행 상황
1) AWS 서버
2) TorchServe 설치
pytorch/serve
출처 : https://github.com/pytorch/serve
출처 : https://github.com/pytorch/serve
출처 : https://github.com/pytorch/serve
3) TorchServe 사용하기
TorchServe를 사용하기 위해서는 torch-model-archiever을 통해 mar 파일로 만들어주어야 함.
Torchserve 공식 git에서는 pre-trained 된 densenet을 사용해서 만들어줌
densenet161.pth 파일을 불러옴
dst에서 Ontology 파일 등을 여기에 넣은 후, handler에서 불러와서 사용
mar파일을 불러와서 사용
4. Inference 날리기
Inference를 날릴 때는 REST API를 사용해서 json 파일 형태로 추론이 가능함.
현재는 Localhost(127.0.0.1)를 사용해 날리지만, AWS elastic IP, port를 사용해서 실제 IP로 Inference를 날릴 수 있음
Handler 수정을 통해 Response를 수정할 수 있음.
결과
1. torchserve로 Server Start
아래와 같이 모델 server가 실행된 것을 볼 수 있음.
2. Inference 날리기
3. torchserve 종료
평가
Reference
https://github.com/pytorch/serve
https://littlefoxdiary.tistory.com/37
https://medium.com/analytics-vidhya/deploy-huggingface-s-bert-to-production-with-pytorch-serve-27b068026d18
https://byeongjokim.github.io/posts/MLOps-Toy-Project-5/
Beta Was this translation helpful? Give feedback.
All reactions