游雁
2023-05-08 fd1aa6b079240ab528e63fd0cfb6685f90f60f8a
funasr/bin/eend_ola_inference.py
@@ -158,6 +158,8 @@
        **kwargs,
):
    assert check_argument_types()
    ncpu = kwargs.get("ncpu", 1)
    torch.set_num_threads(ncpu)
    if batch_size > 1:
        raise NotImplementedError("batch decoding is not implemented")
    if ngpu > 1: