游雁
2024-07-27 69370ed3d62a06989860a77989c1651e90b87466
funasr/auto/auto_model.py
@@ -264,6 +264,8 @@
    def inference(self, input, input_len=None, model=None, kwargs=None, key=None, **cfg):
        kwargs = self.kwargs if kwargs is None else kwargs
        if "cache" in kwargs:
            kwargs.pop("cache")
        deep_update(kwargs, cfg)
        model = self.model if model is None else model
        model.eval()