zhifu gao
2025-04-22 2c2fb5e1eb1185a081e3507c2aa5c3aafaa2bb6d
funasr/tokenizer/char_tokenizer.py
@@ -50,9 +50,7 @@
        )
    def text2tokens(self, line: Union[str, list]) -> List[str]:
        # if self.split_with_space:
        if self.seg_dict is not None:
            tokens = line.strip().split(" ")
            tokens = seg_tokenize(tokens, self.seg_dict)