游雁
2023-05-19 0eb6318fc3bd391239ee3298a54c1af79400e34b
docs
2个文件已修改
7 ■■■■■ 已修改文件
docs/installation/installation.md 4 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/reference/papers.md 3 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/installation/installation.md
@@ -34,9 +34,7 @@
```sh
pip install torch torchaudio
```
For more details about torch, please see [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)
If there exists CUDAs in your environments, you should install the pytorch with the version matching the CUDA. The matching list could be found in [docs](https://pytorch.org/get-started/previous-versions/).
### Install funasr
#### Install from pip
docs/reference/papers.md
@@ -3,7 +3,8 @@
FunASR have implemented the following paper code
### Speech Recognition
- [Paraformer: Fast and Accurate Parallel Transformer for Non-autoregressive End-to-End Speech Recognition](https://arxiv.org/abs/2206.08317), INTERSPEECH 2022.
- [FunASR: A Fundamental End-to-End Speech Recognition Toolkit](https://arxiv.org/abs/2305.11013), INTERSPEECH 2023
- [Paraformer: Fast and Accurate Parallel Transformer for Non-autoregressive End-to-End Speech Recognition](https://arxiv.org/abs/2206.08317), INTERSPEECH 2022
- [Universal ASR: Unifying Streaming and Non-Streaming ASR Using a Single Encoder-Decoder Model](https://arxiv.org/abs/2010.14099), arXiv preprint arXiv:2010.14099, 2020.
- [San-m: Memory equipped self-attention for end-to-end speech recognition](https://arxiv.org/pdf/2006.01713), INTERSPEECH 2020
- [Streaming Chunk-Aware Multihead Attention for Online End-to-End Speech Recognition](https://arxiv.org/abs/2006.01712), INTERSPEECH 2020