游雁
2023-03-15 5b355e0f9340c3f645c417e4493fd08f3889c588
funasr/runtime/triton_gpu/README.md
@@ -1,7 +1,7 @@
## Inference with Triton 
### Steps:
1. Refer here to [get model.onnx](https://github.com/alibaba-damo-academy/FunASR/tree/main/funasr/runtime/python/onnxruntime#steps)
1. Refer here to [get model.onnx](https://github.com/alibaba-damo-academy/FunASR/blob/main/funasr/export/README.md)
2. Follow below instructions to using triton
```sh
@@ -49,4 +49,4 @@
| 60 (onnx fp32)                | 116.0 | 0.0032|
## Acknowledge
This part originates from NVIDIA CISI project. We also have TTS and NLP solutions deployed on triton inference server. If you are interested, please contact us.
This part originates from NVIDIA CISI project. We also have TTS and NLP solutions deployed on triton inference server. If you are interested, please contact us.