嘉渊
2023-05-10 ad55e73198f51786c8f2f4a7dda5b34fd790de3f
funasr/models/encoder/conformer_encoder.py
@@ -19,6 +19,7 @@
    RelPositionMultiHeadedAttention,  # noqa: H301
    LegacyRelPositionMultiHeadedAttention,  # noqa: H301
)
from funasr.models.encoder.abs_encoder import AbsEncoder
from funasr.modules.embedding import (
    PositionalEncoding,  # noqa: H301
    ScaledPositionalEncoding,  # noqa: H301
@@ -41,6 +42,7 @@
from funasr.modules.subsampling import TooShortUttError
from funasr.modules.subsampling import check_short_utt
from funasr.modules.subsampling import Conv2dSubsamplingPad
class ConvolutionModule(nn.Module):
    """ConvolutionModule in Conformer model.
@@ -276,7 +278,7 @@
        return x, mask
class ConformerEncoder(torch.nn.Module):
class ConformerEncoder(AbsEncoder):
    """Conformer encoder module.
    Args: