haoneng.lhn
2023-07-20 3e8159e5b0f6e7e96d4e6ca1f4b4d8ccb151ace5
add lora finetune code
2个文件已修改
3 ■■■■ 已修改文件
egs_modelscope/asr/paraformer/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/finetune.py 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
funasr/bin/build_trainer.py 1 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
egs_modelscope/asr/paraformer/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/finetune.py
@@ -31,7 +31,7 @@
    params.data_path = "./example_data/"            # 数据路径
    params.dataset_type = "small"                   # 小数据量设置small,若数据量大于1000小时,请使用large
    params.batch_bins = 2000                       # batch size,如果dataset_type="small",batch_bins单位为fbank特征帧数,如果dataset_type="large",batch_bins单位为毫秒,
    params.max_epoch = 5                           # 最大训练轮数
    params.max_epoch = 20                           # 最大训练轮数
    params.lr = 0.00005                             # 设置学习率
    init_param = []
    freeze_param = []
funasr/bin/build_trainer.py
@@ -1,7 +1,6 @@
import os
import yaml
import logging
def update_dct(fin_configs, root):
    if root == {}: