majic31
2024-12-24 23e7ddebccd3b05cf7ef89809bcfe565ad6dfa1f
funasr/models/contextual_paraformer/export_meta.py
@@ -16,6 +16,21 @@
        self.embedding = model.bias_embed
        model.bias_encoder.batch_first = False
        self.bias_encoder = model.bias_encoder
    def export_dummy_inputs(self):
        hotword = torch.tensor(
            [
                [10, 11, 12, 13, 14, 10, 11, 12, 13, 14],
                [100, 101, 0, 0, 0, 0, 0, 0, 0, 0],
                [1, 0, 0, 0, 0, 0, 0, 0, 0, 0],
                [10, 11, 12, 13, 14, 10, 11, 12, 13, 14],
                [100, 101, 0, 0, 0, 0, 0, 0, 0, 0],
                [1, 0, 0, 0, 0, 0, 0, 0, 0, 0],
            ],
            dtype=torch.int32,
        )
        # hotword_length = torch.tensor([10, 2, 1], dtype=torch.int32)
        return (hotword)
def export_rebuild_model(model, **kwargs):
@@ -61,7 +76,7 @@
    )
    
    embedder_model.export_name = "model_eb"
    backbone_model.export_name = "model_bb"
    backbone_model.export_name = "model"
    return backbone_model, embedder_model