nichongjia-2007
2023-07-14 d14bb0f843aea0aeb254a5b3c21d42d04e28765b
funasr/export/models/modules/multihead_att.py
@@ -75,8 +75,10 @@
    return x, cache
import torch.fx
torch.fx.wrap('preprocess_for_attn')
torch_version = tuple([int(i) for i in torch.__version__.split(".")[:2]])
if torch_version >= (1, 8):
    import torch.fx
    torch.fx.wrap('preprocess_for_attn')
class MultiHeadedAttentionSANMDecoder(nn.Module):