游雁
2023-03-02 221fd73d1870dfc8b71f4a834a651234c14d904a
funasr/runtime/triton_gpu/README.md
@@ -1,7 +1,7 @@
## Inference with Triton 
### Steps:
1. Refer here to [get model.onnx](https://github.com/alibaba-damo-academy/FunASR/tree/main/funasr/runtime/python/onnxruntime#steps)
1. Refer here to [get model.onnx](https://github.com/alibaba-damo-academy/FunASR/blob/main/funasr/export/README.md)
2. Follow below instructions to using triton
```sh
@@ -49,4 +49,4 @@
| 60 (onnx fp32)                | 116.0 | 0.0032|
## Acknowledge
This part originates from NVIDIA CISI project. We also have TTS and NLP solutions deployed on triton inference server. If you are interested, please contact us.
This part originates from NVIDIA CISI project. We also have TTS and NLP solutions deployed on triton inference server. If you are interested, please contact us.