zhifu gao
2023-05-11 ca2edd97ed6542a643402db0d58e7040135fd56f
Merge pull request #494 from alibaba-damo-academy/dev_lyh

update m2met docs and sa-asr receipe
65个文件已修改
5个文件已添加
704 ■■■■ 已修改文件
README.md 4 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/Baseline.md 27 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/Contact.md 4 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/Introduction.md 18 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/Organizers.md 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/doctrees/Baseline.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/doctrees/Contact.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/doctrees/Introduction.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/doctrees/Organizers.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/doctrees/environment.pickle 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/.buildinfo 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/Baseline.html 35 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/Contact.html 15 ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/Dataset.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/Introduction.html 26 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/Organizers.html 10 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/Rules.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/Track_setting_and_evaluation.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/_images/baseline_result.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/_images/qrcode.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/_sources/Baseline.md.txt 27 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/_sources/Contact.md.txt 4 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/_sources/Introduction.md.txt 18 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/_sources/Organizers.md.txt 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/genindex.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/index.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/objects.inv 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/search.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/_build/html/searchindex.js 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/conf.py 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/images/baseline_result.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2/images/qrcode.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/doctrees/environment.pickle 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/doctrees/index.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/doctrees/基线.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/doctrees/简介.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/doctrees/联系方式.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/doctrees/赛道设置与评估.doctree 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/.buildinfo 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/_images/baseline_result.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/_images/qrcode.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/_sources/index.rst.txt 4 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/_sources/基线.md.txt 27 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/_sources/简介.md.txt 29 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/_sources/联系方式.md.txt 6 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/_sources/赛道设置与评估.md.txt 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/genindex.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/index.html 12 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/objects.inv 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/search.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/searchindex.js 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/基线.html 35 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/数据集.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/简介.html 36 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/组委会.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/联系方式.html 17 ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/规则.html 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/_build/html/赛道设置与评估.html 10 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/conf.py 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/images/baseline_result.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/images/qrcode.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/index.rst 4 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/基线.md 27 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/简介.md 29 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/联系方式.md 6 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/m2met2_cn/赛道设置与评估.md 2 ●●● 补丁 | 查看 | 原始文档 | blame | 历史
egs/alimeeting/sa-asr/README.md 6 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
egs/alimeeting/sa-asr/asr_local.sh 143 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
egs/alimeeting/sa-asr/local/download_pretrained_model_from_modelscope.py 7 ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史
egs/alimeeting/sa-asr/run.sh 8 ●●●● 补丁 | 查看 | 原始文档 | blame | 历史
README.md
@@ -21,8 +21,8 @@
| [**M2MET2.0 Challenge**](https://github.com/alibaba-damo-academy/FunASR#multi-channel-multi-party-meeting-transcription-20-m2met20-challenge)
## What's new: 
### Multi-Channel Multi-Party Meeting Transcription 2.0 (M2MET2.0) Challenge
We are pleased to announce that the M2MeT2.0 challenge will be held in the near future. The baseline system is conducted on FunASR and is provided as a receipe of AliMeeting corpus. For more details you can see the guidence of M2MET2.0 ([CN](https://alibaba-damo-academy.github.io/FunASR/m2met2_cn/index.html)/[EN](https://alibaba-damo-academy.github.io/FunASR/m2met2/index.html)).
### Multi-Channel Multi-Party Meeting Transcription 2.0 (M2MeT2.0) Challenge
We are pleased to announce that the M2MeT2.0 challenge has been accepted by the ASRU 2023 challenge special session. The registration is now open. The baseline system is conducted on FunASR and is provided as a receipe of AliMeeting corpus. For more details you can see the guidence of M2MET2.0 ([CN](https://alibaba-damo-academy.github.io/FunASR/m2met2_cn/index.html)/[EN](https://alibaba-damo-academy.github.io/FunASR/m2met2/index.html)).
### Release notes
For the release notes, please ref to [news](https://github.com/alibaba-damo-academy/FunASR/releases)
docs/m2met2/Baseline.md
@@ -1,13 +1,34 @@
# Baseline
## Overview
We will release an E2E SA-ASR~\cite{kanda21b_interspeech} baseline conducted on [FunASR](https://github.com/alibaba-damo-academy/FunASR) at the time according to the timeline. The model architecture is shown in Figure 3. The SpeakerEncoder is initialized with a pre-trained speaker verification model from ModelScope. This speaker verification model is also be used to extract the speaker embedding in the speaker profile.
We will release an E2E SA-ASR baseline conducted on [FunASR](https://github.com/alibaba-damo-academy/FunASR) at the time according to the timeline. The model architecture is shown in Figure 3. The SpeakerEncoder is initialized with a pre-trained speaker verification model from ModelScope. This speaker verification model is also be used to extract the speaker embedding in the speaker profile.
![model archietecture](images/sa_asr_arch.png)
## Quick start
#TODO: fill with the README.md of the baseline
To run the baseline, first you need to install FunASR and ModelScope. ([installation](https://alibaba-damo-academy.github.io/FunASR/en/installation.html))
There are two startup scripts, `run.sh` for training and evaluating on the old eval and test sets, and `run_m2met_2023_infer.sh` for inference on the new test set of the Multi-Channel Multi-Party Meeting Transcription 2.0 ([M2MeT2.0](https://alibaba-damo-academy.github.io/FunASR/m2met2/index.html)) Challenge.
Before running `run.sh`, you must manually download and unpack the [AliMeeting](http://www.openslr.org/119/) corpus and place it in the `./dataset` directory:
```shell
dataset
|—— Eval_Ali_far
|—— Eval_Ali_near
|—— Test_Ali_far
|—— Test_Ali_near
|—— Train_Ali_far
|—— Train_Ali_near
```
Before running `run_m2met_2023_infer.sh`, you need to place the new test set `Test_2023_Ali_far` (to be released after the challenge starts) in the `./dataset` directory, which contains only raw audios. Then put the given `wav.scp`, `wav_raw.scp`, `segments`, `utt2spk` and `spk2utt` in the `./data/Test_2023_Ali_far` directory.
```shell
data/Test_2023_Ali_far
|—— wav.scp
|—— wav_raw.scp
|—— segments
|—— utt2spk
|—— spk2utt
```
For more details you can see [here](https://github.com/alibaba-damo-academy/FunASR/blob/main/egs/alimeeting/sa-asr/README.md)
## Baseline results
The results of the baseline system are shown in Table 3. The speaker profile adopts the oracle speaker embedding during training. However, due to the lack of oracle speaker label during evaluation, the speaker profile provided by an additional spectral clustering is used. Meanwhile, the results of using the oracle speaker profile on Eval and Test Set are also provided to show the impact of speaker profile accuracy. 
![baseline result](images/baseline_result.png)
![baseline_result](images/baseline_result.png)
docs/m2met2/Contact.md
@@ -1,9 +1,9 @@
# Contact
If you have any questions about M2MET2.0 challenge, please contact us by
If you have any questions about M2MeT2.0 challenge, please contact us by
- email: [m2met.alimeeting@gmail.com](mailto:m2met.alimeeting@gmail.com)
|                Wechat group                |
|:------------------------------------------:|
<!-- | <img src="images/wechat.png" width="300"/> | -->
| <img src="images/qrcode.png" width="300"/> |
docs/m2met2/Introduction.md
@@ -10,19 +10,19 @@
## Timeline(AOE Time)
- $ April~29, 2023: $ Challenge and registration open.
- $ May~8, 2023: $ Baseline release.
- $ May~15, 2023: $ Registration deadline, the due date for participants to join the Challenge.
- $ June~9, 2023: $ Test data release and leaderboard open.
- $ June~13, 2023: $ Final submission deadline.
- $ June~19, 2023: $ Evaluation result and ranking release.
- $ May~11, 2023: $ Baseline release.
- $ May~22, 2023: $ Registration deadline, the due date for participants to join the Challenge.
- $ June~16, 2023: $ Test data release and leaderboard open.
- $ June~20, 2023: $ Final submission deadline and leaderboar close.
- $ June~26, 2023: $ Evaluation result and ranking release.
- $ July~3, 2023: $ Deadline for paper submission.
- $ July~10, 2023: $ Deadline for final paper submission.
- $ December~12\ to\ 16, 2023: $ ASRU Workshop and challenge session
- $ December~12\ to\ 16, 2023: $ ASRU Workshop and Challenge Session.
## Guidelines
Interested participants, whether from academia or industry, must register for the challenge by completing the Google form below. The deadline for registration is May 15, 2023.
Interested participants, whether from academia or industry, must register for the challenge by completing the Google form below. The deadline for registration is May 22, 2023. Participants are also welcome to join the [wechat group](https://alibaba-damo-academy.github.io/FunASR/m2met2/Contact.html) of M2MeT2.0 and keep up to date with the latest updates about the challenge.
[M2MET2.0 Registration](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
[M2MeT2.0 Registration](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
Within three working days, the challenge organizer will send email invitations to eligible teams to participate in the challenge. All qualified teams are required to adhere to the challenge rules, which will be published on the challenge page. Prior to the ranking release time, each participant must submit a system description document detailing their approach and methods. The organizer will select the top three submissions to be included in the ASRU2023 Proceedings.
Within three working days, the challenge organizer will send email invitations to eligible teams to participate in the challenge. All qualified teams are required to adhere to the challenge rules, which will be published on the challenge page. Prior to the ranking release time, each participant must submit a system description document detailing their approach and methods. The organizer will select the top ranking submissions to be included in the ASRU2023 Proceedings.
docs/m2met2/Organizers.md
@@ -1,5 +1,5 @@
# Organizers
***Lei Xie, Professor, Northwestern Polytechnical University, China***
***Lei Xie, Professor, AISHELL foundation, China***
Email: [lxie@nwpu.edu.cn](mailto:lxie@nwpu.edu.cn)
docs/m2met2/_build/doctrees/Baseline.doctree
Binary files differ
docs/m2met2/_build/doctrees/Contact.doctree
Binary files differ
docs/m2met2/_build/doctrees/Introduction.doctree
Binary files differ
docs/m2met2/_build/doctrees/Organizers.doctree
Binary files differ
docs/m2met2/_build/doctrees/environment.pickle
Binary files differ
docs/m2met2/_build/html/.buildinfo
@@ -1,4 +1,4 @@
# Sphinx build info version 1
# This file hashes the configuration used when building these files. When it is not found, a full rebuild will be done.
config: 9907eab6bf227ca0fc6db297f26919da
config: a62852d90c3e533904d811bbf85f977d
tags: 645f666f9bcd5a90fca523b33c5a78b7
docs/m2met2/_build/html/Baseline.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Baseline &#8212; m2met2  documentation</title>
    <title>Baseline &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -44,7 +44,7 @@
        <li class="right" >
          <a href="Track_setting_and_evaluation.html" title="Track &amp; Evaluation"
             accesskey="P">previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Baseline</a></li> 
      </ul>
    </div>
@@ -55,7 +55,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -126,17 +126,38 @@
<h1>Baseline<a class="headerlink" href="#baseline" title="Permalink to this heading">¶</a></h1>
<section id="overview">
<h2>Overview<a class="headerlink" href="#overview" title="Permalink to this heading">¶</a></h2>
<p>We will release an E2E SA-ASR~\cite{kanda21b_interspeech} baseline conducted on <a class="reference external" href="https://github.com/alibaba-damo-academy/FunASR">FunASR</a> at the time according to the timeline. The model architecture is shown in Figure 3. The SpeakerEncoder is initialized with a pre-trained speaker verification model from ModelScope. This speaker verification model is also be used to extract the speaker embedding in the speaker profile.</p>
<p>We will release an E2E SA-ASR baseline conducted on <a class="reference external" href="https://github.com/alibaba-damo-academy/FunASR">FunASR</a> at the time according to the timeline. The model architecture is shown in Figure 3. The SpeakerEncoder is initialized with a pre-trained speaker verification model from ModelScope. This speaker verification model is also be used to extract the speaker embedding in the speaker profile.</p>
<p><img alt="model archietecture" src="_images/sa_asr_arch.png" /></p>
</section>
<section id="quick-start">
<h2>Quick start<a class="headerlink" href="#quick-start" title="Permalink to this heading">¶</a></h2>
<p>#TODO: fill with the README.md of the baseline</p>
<p>To run the baseline, first you need to install FunASR and ModelScope. (<a class="reference external" href="https://alibaba-damo-academy.github.io/FunASR/en/installation.html">installation</a>)<br />
There are two startup scripts, <code class="docutils literal notranslate"><span class="pre">run.sh</span></code> for training and evaluating on the old eval and test sets, and <code class="docutils literal notranslate"><span class="pre">run_m2met_2023_infer.sh</span></code> for inference on the new test set of the Multi-Channel Multi-Party Meeting Transcription 2.0 (<a class="reference external" href="https://alibaba-damo-academy.github.io/FunASR/m2met2/index.html">M2MeT2.0</a>) Challenge.<br />
Before running <code class="docutils literal notranslate"><span class="pre">run.sh</span></code>, you must manually download and unpack the <a class="reference external" href="http://www.openslr.org/119/">AliMeeting</a> corpus and place it in the <code class="docutils literal notranslate"><span class="pre">./dataset</span></code> directory:</p>
<div class="highlight-shell notranslate"><div class="highlight"><pre><span></span>dataset
<span class="p">|</span>——<span class="w"> </span>Eval_Ali_far
<span class="p">|</span>——<span class="w"> </span>Eval_Ali_near
<span class="p">|</span>——<span class="w"> </span>Test_Ali_far
<span class="p">|</span>——<span class="w"> </span>Test_Ali_near
<span class="p">|</span>——<span class="w"> </span>Train_Ali_far
<span class="p">|</span>——<span class="w"> </span>Train_Ali_near
</pre></div>
</div>
<p>Before running <code class="docutils literal notranslate"><span class="pre">run_m2met_2023_infer.sh</span></code>, you need to place the new test set <code class="docutils literal notranslate"><span class="pre">Test_2023_Ali_far</span></code> (to be released after the challenge starts) in the <code class="docutils literal notranslate"><span class="pre">./dataset</span></code> directory, which contains only raw audios. Then put the given <code class="docutils literal notranslate"><span class="pre">wav.scp</span></code>, <code class="docutils literal notranslate"><span class="pre">wav_raw.scp</span></code>, <code class="docutils literal notranslate"><span class="pre">segments</span></code>, <code class="docutils literal notranslate"><span class="pre">utt2spk</span></code> and <code class="docutils literal notranslate"><span class="pre">spk2utt</span></code> in the <code class="docutils literal notranslate"><span class="pre">./data/Test_2023_Ali_far</span></code> directory.</p>
<div class="highlight-shell notranslate"><div class="highlight"><pre><span></span>data/Test_2023_Ali_far
<span class="p">|</span>——<span class="w"> </span>wav.scp
<span class="p">|</span>——<span class="w"> </span>wav_raw.scp
<span class="p">|</span>——<span class="w"> </span>segments
<span class="p">|</span>——<span class="w"> </span>utt2spk
<span class="p">|</span>——<span class="w"> </span>spk2utt
</pre></div>
</div>
<p>For more details you can see <a class="reference external" href="https://github.com/alibaba-damo-academy/FunASR/blob/main/egs/alimeeting/sa-asr/README.md">here</a></p>
</section>
<section id="baseline-results">
<h2>Baseline results<a class="headerlink" href="#baseline-results" title="Permalink to this heading">¶</a></h2>
<p>The results of the baseline system are shown in Table 3. The speaker profile adopts the oracle speaker embedding during training. However, due to the lack of oracle speaker label during evaluation, the speaker profile provided by an additional spectral clustering is used. Meanwhile, the results of using the oracle speaker profile on Eval and Test Set are also provided to show the impact of speaker profile accuracy.</p>
<p><img alt="baseline result" src="_images/baseline_result.png" /></p>
<p><img alt="baseline_result" src="_images/baseline_result.png" /></p>
</section>
</section>
@@ -170,7 +191,7 @@
        <li class="right" >
          <a href="Track_setting_and_evaluation.html" title="Track &amp; Evaluation"
             >previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Baseline</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/Contact.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Contact &#8212; m2met2  documentation</title>
    <title>Contact &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -40,7 +40,7 @@
        <li class="right" >
          <a href="Organizers.html" title="Organizers"
             accesskey="P">previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Contact</a></li> 
      </ul>
    </div>
@@ -51,7 +51,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -120,7 +120,7 @@
            
  <section id="contact">
<h1>Contact<a class="headerlink" href="#contact" title="Permalink to this heading">¶</a></h1>
<p>If you have any questions about M2MET2.0 challenge, please contact us by</p>
<p>If you have any questions about M2MeT2.0 challenge, please contact us by</p>
<ul class="simple">
<li><p>email: <a class="reference external" href="mailto:m2met&#46;alimeeting&#37;&#52;&#48;gmail&#46;com">m2met<span>&#46;</span>alimeeting<span>&#64;</span>gmail<span>&#46;</span>com</a></p></li>
</ul>
@@ -129,8 +129,11 @@
<tr class="row-odd"><th class="head text-center"><p>Wechat group</p></th>
</tr>
</thead>
<tbody>
<tr class="row-even"><td class="text-center"><p><a class="reference internal" href="_images/qrcode.png"><img alt="_images/qrcode.png" src="_images/qrcode.png" style="width: 300px;" /></a></p></td>
</tr>
</tbody>
</table>
<!-- | <img src="images/wechat.png" width="300"/> | -->
</section>
@@ -157,7 +160,7 @@
        <li class="right" >
          <a href="Organizers.html" title="Organizers"
             >previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Contact</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/Dataset.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Datasets &#8212; m2met2  documentation</title>
    <title>Datasets &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -45,7 +45,7 @@
        <li class="right" >
          <a href="Introduction.html" title="Introduction"
             accesskey="P">previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Datasets</a></li> 
      </ul>
    </div>
@@ -56,7 +56,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -181,7 +181,7 @@
        <li class="right" >
          <a href="Introduction.html" title="Introduction"
             >previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Datasets</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/Introduction.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Introduction &#8212; m2met2  documentation</title>
    <title>Introduction &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -45,7 +45,7 @@
        <li class="right" >
          <a href="index.html" title="ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0)"
             accesskey="P">previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Introduction</a></li> 
      </ul>
    </div>
@@ -56,7 +56,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -136,21 +136,21 @@
<h2>Timeline(AOE Time)<a class="headerlink" href="#timeline-aoe-time" title="Permalink to this heading">¶</a></h2>
<ul class="simple">
<li><p><span class="math notranslate nohighlight">\( April~29, 2023: \)</span> Challenge and registration open.</p></li>
<li><p><span class="math notranslate nohighlight">\( May~8, 2023: \)</span> Baseline release.</p></li>
<li><p><span class="math notranslate nohighlight">\( May~15, 2023: \)</span> Registration deadline, the due date for participants to join the Challenge.</p></li>
<li><p><span class="math notranslate nohighlight">\( June~9, 2023: \)</span> Test data release and leaderboard open.</p></li>
<li><p><span class="math notranslate nohighlight">\( June~13, 2023: \)</span> Final submission deadline.</p></li>
<li><p><span class="math notranslate nohighlight">\( June~19, 2023: \)</span> Evaluation result and ranking release.</p></li>
<li><p><span class="math notranslate nohighlight">\( May~11, 2023: \)</span> Baseline release.</p></li>
<li><p><span class="math notranslate nohighlight">\( May~22, 2023: \)</span> Registration deadline, the due date for participants to join the Challenge.</p></li>
<li><p><span class="math notranslate nohighlight">\( June~16, 2023: \)</span> Test data release and leaderboard open.</p></li>
<li><p><span class="math notranslate nohighlight">\( June~20, 2023: \)</span> Final submission deadline and leaderboar close.</p></li>
<li><p><span class="math notranslate nohighlight">\( June~26, 2023: \)</span> Evaluation result and ranking release.</p></li>
<li><p><span class="math notranslate nohighlight">\( July~3, 2023: \)</span> Deadline for paper submission.</p></li>
<li><p><span class="math notranslate nohighlight">\( July~10, 2023: \)</span> Deadline for final paper submission.</p></li>
<li><p><span class="math notranslate nohighlight">\( December~12\ to\ 16, 2023: \)</span> ASRU Workshop and challenge session</p></li>
<li><p><span class="math notranslate nohighlight">\( December~12\ to\ 16, 2023: \)</span> ASRU Workshop and Challenge Session.</p></li>
</ul>
</section>
<section id="guidelines">
<h2>Guidelines<a class="headerlink" href="#guidelines" title="Permalink to this heading">¶</a></h2>
<p>Interested participants, whether from academia or industry, must register for the challenge by completing the Google form below. The deadline for registration is May 15, 2023.</p>
<p><a class="reference external" href="https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link">M2MET2.0 Registration</a></p>
<p>Within three working days, the challenge organizer will send email invitations to eligible teams to participate in the challenge. All qualified teams are required to adhere to the challenge rules, which will be published on the challenge page. Prior to the ranking release time, each participant must submit a system description document detailing their approach and methods. The organizer will select the top three submissions to be included in the ASRU2023 Proceedings.</p>
<p>Interested participants, whether from academia or industry, must register for the challenge by completing the Google form below. The deadline for registration is May 22, 2023. Participants are also welcome to join the <a class="reference external" href="https://alibaba-damo-academy.github.io/FunASR/m2met2/Contact.html">wechat group</a> of M2MeT2.0 and keep up to date with the latest updates about the challenge.</p>
<p><a class="reference external" href="https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link">M2MeT2.0 Registration</a></p>
<p>Within three working days, the challenge organizer will send email invitations to eligible teams to participate in the challenge. All qualified teams are required to adhere to the challenge rules, which will be published on the challenge page. Prior to the ranking release time, each participant must submit a system description document detailing their approach and methods. The organizer will select the top ranking submissions to be included in the ASRU2023 Proceedings.</p>
</section>
</section>
@@ -184,7 +184,7 @@
        <li class="right" >
          <a href="index.html" title="ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0)"
             >previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Introduction</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/Organizers.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Organizers &#8212; m2met2  documentation</title>
    <title>Organizers &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -44,7 +44,7 @@
        <li class="right" >
          <a href="Rules.html" title="Rules"
             accesskey="P">previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Organizers</a></li> 
      </ul>
    </div>
@@ -55,7 +55,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -124,7 +124,7 @@
            
  <section id="organizers">
<h1>Organizers<a class="headerlink" href="#organizers" title="Permalink to this heading">¶</a></h1>
<p><em><strong>Lei Xie, Professor, Northwestern Polytechnical University, China</strong></em></p>
<p><em><strong>Lei Xie, Professor, AISHELL foundation, China</strong></em></p>
<p>Email: <a class="reference external" href="mailto:lxie&#37;&#52;&#48;nwpu&#46;edu&#46;cn">lxie<span>&#64;</span>nwpu<span>&#46;</span>edu<span>&#46;</span>cn</a></p>
<a class="reference internal image-reference" href="_images/lxie.jpeg"><img alt="lxie" src="_images/lxie.jpeg" style="width: 20%;" /></a>
<p><em><strong>Kong Aik Lee, Senior Scientist at Institute for Infocomm Research, A*Star, Singapore</strong></em></p>
@@ -180,7 +180,7 @@
        <li class="right" >
          <a href="Rules.html" title="Rules"
             >previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Organizers</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/Rules.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Rules &#8212; m2met2  documentation</title>
    <title>Rules &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -44,7 +44,7 @@
        <li class="right" >
          <a href="Baseline.html" title="Baseline"
             accesskey="P">previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Rules</a></li> 
      </ul>
    </div>
@@ -55,7 +55,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -165,7 +165,7 @@
        <li class="right" >
          <a href="Baseline.html" title="Baseline"
             >previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Rules</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/Track_setting_and_evaluation.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Track &amp; Evaluation &#8212; m2met2  documentation</title>
    <title>Track &amp; Evaluation &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -45,7 +45,7 @@
        <li class="right" >
          <a href="Dataset.html" title="Datasets"
             accesskey="P">previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Track &amp; Evaluation</a></li> 
      </ul>
    </div>
@@ -56,7 +56,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -180,7 +180,7 @@
        <li class="right" >
          <a href="Dataset.html" title="Datasets"
             >previous</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Track &amp; Evaluation</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/_images/baseline_result.png

docs/m2met2/_build/html/_images/qrcode.png
docs/m2met2/_build/html/_sources/Baseline.md.txt
@@ -1,13 +1,34 @@
# Baseline
## Overview
We will release an E2E SA-ASR~\cite{kanda21b_interspeech} baseline conducted on [FunASR](https://github.com/alibaba-damo-academy/FunASR) at the time according to the timeline. The model architecture is shown in Figure 3. The SpeakerEncoder is initialized with a pre-trained speaker verification model from ModelScope. This speaker verification model is also be used to extract the speaker embedding in the speaker profile.
We will release an E2E SA-ASR baseline conducted on [FunASR](https://github.com/alibaba-damo-academy/FunASR) at the time according to the timeline. The model architecture is shown in Figure 3. The SpeakerEncoder is initialized with a pre-trained speaker verification model from ModelScope. This speaker verification model is also be used to extract the speaker embedding in the speaker profile.
![model archietecture](images/sa_asr_arch.png)
## Quick start
#TODO: fill with the README.md of the baseline
To run the baseline, first you need to install FunASR and ModelScope. ([installation](https://alibaba-damo-academy.github.io/FunASR/en/installation.html))
There are two startup scripts, `run.sh` for training and evaluating on the old eval and test sets, and `run_m2met_2023_infer.sh` for inference on the new test set of the Multi-Channel Multi-Party Meeting Transcription 2.0 ([M2MeT2.0](https://alibaba-damo-academy.github.io/FunASR/m2met2/index.html)) Challenge.
Before running `run.sh`, you must manually download and unpack the [AliMeeting](http://www.openslr.org/119/) corpus and place it in the `./dataset` directory:
```shell
dataset
|—— Eval_Ali_far
|—— Eval_Ali_near
|—— Test_Ali_far
|—— Test_Ali_near
|—— Train_Ali_far
|—— Train_Ali_near
```
Before running `run_m2met_2023_infer.sh`, you need to place the new test set `Test_2023_Ali_far` (to be released after the challenge starts) in the `./dataset` directory, which contains only raw audios. Then put the given `wav.scp`, `wav_raw.scp`, `segments`, `utt2spk` and `spk2utt` in the `./data/Test_2023_Ali_far` directory.
```shell
data/Test_2023_Ali_far
|—— wav.scp
|—— wav_raw.scp
|—— segments
|—— utt2spk
|—— spk2utt
```
For more details you can see [here](https://github.com/alibaba-damo-academy/FunASR/blob/main/egs/alimeeting/sa-asr/README.md)
## Baseline results
The results of the baseline system are shown in Table 3. The speaker profile adopts the oracle speaker embedding during training. However, due to the lack of oracle speaker label during evaluation, the speaker profile provided by an additional spectral clustering is used. Meanwhile, the results of using the oracle speaker profile on Eval and Test Set are also provided to show the impact of speaker profile accuracy. 
![baseline result](images/baseline_result.png)
![baseline_result](images/baseline_result.png)
docs/m2met2/_build/html/_sources/Contact.md.txt
@@ -1,9 +1,9 @@
# Contact
If you have any questions about M2MET2.0 challenge, please contact us by
If you have any questions about M2MeT2.0 challenge, please contact us by
- email: [m2met.alimeeting@gmail.com](mailto:m2met.alimeeting@gmail.com)
|                Wechat group                |
|:------------------------------------------:|
<!-- | <img src="images/wechat.png" width="300"/> | -->
| <img src="images/qrcode.png" width="300"/> |
docs/m2met2/_build/html/_sources/Introduction.md.txt
@@ -10,19 +10,19 @@
## Timeline(AOE Time)
- $ April~29, 2023: $ Challenge and registration open.
- $ May~8, 2023: $ Baseline release.
- $ May~15, 2023: $ Registration deadline, the due date for participants to join the Challenge.
- $ June~9, 2023: $ Test data release and leaderboard open.
- $ June~13, 2023: $ Final submission deadline.
- $ June~19, 2023: $ Evaluation result and ranking release.
- $ May~11, 2023: $ Baseline release.
- $ May~22, 2023: $ Registration deadline, the due date for participants to join the Challenge.
- $ June~16, 2023: $ Test data release and leaderboard open.
- $ June~20, 2023: $ Final submission deadline and leaderboar close.
- $ June~26, 2023: $ Evaluation result and ranking release.
- $ July~3, 2023: $ Deadline for paper submission.
- $ July~10, 2023: $ Deadline for final paper submission.
- $ December~12\ to\ 16, 2023: $ ASRU Workshop and challenge session
- $ December~12\ to\ 16, 2023: $ ASRU Workshop and Challenge Session.
## Guidelines
Interested participants, whether from academia or industry, must register for the challenge by completing the Google form below. The deadline for registration is May 15, 2023.
Interested participants, whether from academia or industry, must register for the challenge by completing the Google form below. The deadline for registration is May 22, 2023. Participants are also welcome to join the [wechat group](https://alibaba-damo-academy.github.io/FunASR/m2met2/Contact.html) of M2MeT2.0 and keep up to date with the latest updates about the challenge.
[M2MET2.0 Registration](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
[M2MeT2.0 Registration](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
Within three working days, the challenge organizer will send email invitations to eligible teams to participate in the challenge. All qualified teams are required to adhere to the challenge rules, which will be published on the challenge page. Prior to the ranking release time, each participant must submit a system description document detailing their approach and methods. The organizer will select the top three submissions to be included in the ASRU2023 Proceedings.
Within three working days, the challenge organizer will send email invitations to eligible teams to participate in the challenge. All qualified teams are required to adhere to the challenge rules, which will be published on the challenge page. Prior to the ranking release time, each participant must submit a system description document detailing their approach and methods. The organizer will select the top ranking submissions to be included in the ASRU2023 Proceedings.
docs/m2met2/_build/html/_sources/Organizers.md.txt
@@ -1,5 +1,5 @@
# Organizers
***Lei Xie, Professor, Northwestern Polytechnical University, China***
***Lei Xie, Professor, AISHELL foundation, China***
Email: [lxie@nwpu.edu.cn](mailto:lxie@nwpu.edu.cn)
docs/m2met2/_build/html/genindex.html
@@ -14,7 +14,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Index &#8212; m2met2  documentation</title>
    <title>Index &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -35,7 +35,7 @@
        <li class="right" style="margin-right: 10px">
          <a href="#" title="General Index"
             accesskey="I">index</a></li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Index</a></li> 
      </ul>
    </div>
@@ -46,7 +46,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -132,7 +132,7 @@
        <li class="right" style="margin-right: 10px">
          <a href="#" title="General Index"
             >index</a></li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Index</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/index.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0) &#8212; m2met2  documentation</title>
    <title>ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0) &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -40,7 +40,7 @@
        <li class="right" >
          <a href="Introduction.html" title="Introduction"
             accesskey="N">next</a> |</li>
        <li class="nav-item nav-item-0"><a href="#">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="#">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0)</a></li> 
      </ul>
    </div>
@@ -51,7 +51,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    #" class="text-logo">m2met2  documentation</a>
    #" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -160,7 +160,7 @@
        <li class="right" >
          <a href="Introduction.html" title="Introduction"
             >next</a> |</li>
        <li class="nav-item nav-item-0"><a href="#">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="#">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0)</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/objects.inv
@@ -1,5 +1,5 @@
# Sphinx inventory version 2
# Project: m2met2
# Project: MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0
# Version: 
# The remainder of this file is compressed using zlib.
xڅAOƒ0ÇïýïdôÀ2ñæ!™M #Ð<-•6@슁bœŸÞ޶£·ö÷~ÿ÷^ކ B¶JÀ ù#ï*îaãØªÑG    Š;Â¥Y¥çŠCÞxbÚd†CÖpŸa¥ûŽ•n;5ፆ7Ýõ5Sí—臹y¡Þ+F)Ê|•ö¬z;˜áºUõ)~LŽìzƒ¿<Ûk2à’Žj¡ZÅÅçÔH²W!Ï­<µ1|~¢‹ææÍŒ¨,ö®ÃÈö)ÅAü’¤î—G},I(&[ EDʸÀ9Å;ÆLӄlWk¸ÍÂLPóºCǎÿ²Øû)ð;937—­8«þËOº1×[¤ÁúªY-³™ÒÖsV ô é,Ö
docs/m2met2/_build/html/search.html
@@ -14,7 +14,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>Search &#8212; m2met2  documentation</title>
    <title>Search &#8212; MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    
@@ -41,7 +41,7 @@
        <li class="right" style="margin-right: 10px">
          <a href="genindex.html" title="General Index"
             accesskey="I">index</a></li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Search</a></li> 
      </ul>
    </div>
@@ -52,7 +52,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  documentation</a>
    index.html" class="text-logo">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a>
<div class="sidebar-block">
  <div class="sidebar-toc">
    
@@ -149,7 +149,7 @@
        <li class="right" style="margin-right: 10px">
          <a href="genindex.html" title="General Index"
             >index</a></li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  documentation</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">Search</a></li> 
      </ul>
    </div>
docs/m2met2/_build/html/searchindex.js
@@ -1 +1 @@
Search.setIndex({"docnames": ["Baseline", "Contact", "Dataset", "Introduction", "Organizers", "Rules", "Track_setting_and_evaluation", "index"], "filenames": ["Baseline.md", "Contact.md", "Dataset.md", "Introduction.md", "Organizers.md", "Rules.md", "Track_setting_and_evaluation.md", "index.rst"], "titles": ["Baseline", "Contact", "Datasets", "Introduction", "Organizers", "Rules", "Track &amp; Evaluation", "ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0)"], "terms": {"we": [0, 2, 3, 7], "releas": [0, 2, 3, 6], "an": [0, 2, 3, 6], "e2": 0, "sa": 0, "asr": [0, 3, 7], "cite": 0, "kanda21b_interspeech": 0, "conduct": [0, 2], "funasr": 0, "time": [0, 6], "accord": [0, 3], "timelin": [0, 2], "The": [0, 2, 3, 5, 6], "model": [0, 2, 3, 5, 6], "architectur": 0, "i": [0, 2, 3, 5], "shown": [0, 2], "figur": [0, 6], "3": [0, 2, 3], "speakerencod": 0, "initi": 0, "pre": [0, 6], "train": [0, 3, 5, 7], "speaker": [0, 2, 3, 7], "verif": 0, "from": [0, 2, 3, 5, 6], "modelscop": [0, 6], "thi": [0, 3, 5, 6], "also": [0, 2, 6], "us": [0, 2, 5, 6], "extract": 0, "embed": 0, "profil": 0, "todo": 0, "fill": 0, "readm": 0, "md": 0, "system": [0, 3, 5, 6, 7], "ar": [0, 2, 3, 5, 6, 7], "tabl": [0, 2], "adopt": 0, "oracl": [0, 6], "dure": [0, 2, 6], "howev": [0, 3, 6], "due": [0, 3], "lack": 0, "label": [0, 5, 6], "evalu": [0, 2, 3, 7], "provid": [0, 2, 6, 7], "addit": [0, 6], "spectral": 0, "cluster": 0, "meanwhil": 0, "eval": [0, 2, 5, 6], "test": [0, 2, 3, 5, 6], "set": [0, 2, 3, 5, 6], "show": 0, "impact": 0, "accuraci": [0, 6], "If": [1, 5, 6], "you": 1, "have": [1, 3], "ani": [1, 5, 6], "question": 1, "about": 1, "m2met2": [1, 3], "0": [1, 2, 3], "challeng": [1, 3, 5, 6], "pleas": 1, "u": [1, 2], "email": [1, 3, 4], "m2met": [1, 3, 6, 7], "alimeet": [1, 6], "gmail": 1, "com": [1, 4], "wechat": 1, "group": [1, 2], "In": [2, 3, 5], "fix": [2, 3, 7], "condit": [2, 3, 7], "restrict": 2, "three": [2, 3, 6], "publicli": [2, 6], "avail": [2, 6], "corpora": 2, "name": 2, "aishel": [2, 4, 6], "4": [2, 6], "cn": [2, 4, 6], "celeb": [2, 6], "To": [2, 3, 7], "perform": [2, 3], "new": [2, 3, 6], "call": 2, "2023": [2, 3, 5, 6], "score": [2, 6], "rank": [2, 3, 6], "describ": 2, "contain": [2, 6], "118": 2, "75": 2, "hour": [2, 3, 6], "speech": [2, 3, 6, 7], "total": [2, 6], "divid": [2, 6], "104": 2, "10": [2, 3, 6], "specif": [2, 6], "212": 2, "8": [2, 3], "20": 2, "session": [2, 3, 6, 7], "respect": 2, "each": [2, 3, 6], "consist": [2, 6], "15": [2, 3], "30": 2, "minut": 2, "discuss": 2, "particip": [2, 5, 6], "number": [2, 3, 6], "456": 2, "25": 2, "60": 2, "balanc": 2, "gender": 2, "coverag": 2, "collect": 2, "13": [2, 3], "meet": [2, 3, 6], "venu": 2, "which": [2, 3, 6], "categor": 2, "type": 2, "small": 2, "medium": 2, "larg": [2, 3], "room": [2, 3], "size": 2, "rang": 2, "m": 2, "2": [2, 6], "55": 2, "differ": [2, 3, 6], "give": 2, "varieti": 2, "acoust": [2, 3, 6], "properti": 2, "layout": 2, "paramet": [2, 5], "togeth": 2, "wall": 2, "materi": 2, "cover": 2, "cement": 2, "glass": 2, "etc": 2, "other": 2, "furnish": 2, "includ": [2, 3, 5, 6], "sofa": 2, "tv": 2, "blackboard": 2, "fan": 2, "air": 2, "condition": 2, "plant": 2, "record": [2, 6], "sit": 2, "around": 2, "microphon": [2, 3], "arrai": [2, 3], "place": 2, "natur": 2, "convers": 2, "distanc": 2, "5": 2, "all": [2, 3, 5, 6], "nativ": 2, "chines": 2, "speak": [2, 3], "mandarin": [2, 3], "without": 2, "strong": 2, "accent": 2, "variou": [2, 3], "kind": 2, "indoor": 2, "nois": [2, 3, 5], "limit": [2, 3, 5], "click": 2, "keyboard": 2, "door": 2, "open": [2, 3, 7], "close": 2, "bubbl": 2, "made": [2, 3], "For": 2, "both": [2, 6], "requir": [2, 3, 6], "remain": [2, 3], "same": [2, 5], "posit": 2, "There": 2, "overlap": [2, 3], "between": [2, 6], "exampl": 2, "fig": 2, "1": 2, "within": [2, 3], "one": [2, 5], "ensur": 2, "ratio": 2, "select": [2, 3, 5, 6], "topic": 2, "medic": 2, "treatment": 2, "educ": 2, "busi": 2, "organ": [2, 3, 5, 6, 7], "manag": 2, "industri": [2, 3], "product": 2, "daili": 2, "routin": 2, "averag": 2, "42": 2, "27": 2, "34": 2, "76": 2, "more": 2, "A": [2, 4], "distribut": 2, "were": 2, "ident": [2, 6], "compris": [2, 3, 7], "therebi": 2, "share": 2, "similar": 2, "configur": 2, "field": [2, 3, 6], "signal": [2, 3], "headset": 2, "onli": [2, 5, 6], "": [2, 6], "own": 2, "transcrib": [2, 3, 6], "It": [2, 6], "worth": [2, 6], "note": [2, 6], "far": [2, 3], "audio": [2, 3, 6], "synchron": 2, "common": 2, "transcript": [2, 3, 5, 6], "prepar": 2, "textgrid": 2, "format": 2, "inform": [2, 3], "durat": 2, "id": 2, "segment": [2, 6], "timestamp": [2, 6], "mention": 2, "abov": 2, "can": [2, 3, 5, 6], "download": 2, "openslr": 2, "via": 2, "follow": [2, 5], "link": 2, "particularli": 2, "baselin": [2, 3, 7], "conveni": 2, "script": 2, "automat": [3, 7], "recognit": [3, 7], "diariz": 3, "signific": 3, "stride": 3, "recent": 3, "year": 3, "result": 3, "surg": 3, "technologi": 3, "applic": 3, "across": 3, "domain": 3, "present": 3, "uniqu": [3, 6], "complex": [3, 5], "divers": 3, "style": 3, "variabl": 3, "confer": 3, "environment": 3, "reverber": [3, 5], "over": 3, "sever": 3, "been": 3, "advanc": [3, 7], "develop": [3, 6], "rich": 3, "comput": [3, 5], "hear": 3, "multisourc": 3, "environ": 3, "chime": 3, "latest": 3, "iter": 3, "ha": 3, "particular": 3, "focu": 3, "distant": 3, "gener": 3, "topologi": 3, "scenario": 3, "while": 3, "progress": 3, "english": 3, "languag": [3, 5], "barrier": 3, "achiev": 3, "compar": 3, "non": 3, "multimod": 3, "base": 3, "process": [3, 6], "misp": 3, "multi": [3, 6], "channel": 3, "parti": [3, 6], "instrument": 3, "seek": 3, "address": 3, "problem": 3, "visual": 3, "everydai": 3, "home": 3, "focus": 3, "tackl": 3, "issu": 3, "offlin": 3, "icassp2022": 3, "two": [3, 5, 7], "main": 3, "task": [3, 6, 7], "former": 3, "involv": [3, 6], "identifi": 3, "who": 3, "spoke": 3, "when": 3, "latter": 3, "aim": 3, "multipl": [3, 6], "simultan": 3, "pose": [3, 6], "technic": 3, "difficulti": 3, "interfer": 3, "build": [3, 6, 7], "success": [3, 7], "previou": 3, "excit": 3, "propos": [3, 7], "asru2023": [3, 7], "special": [3, 5, 7], "origin": [3, 5], "metric": [3, 7], "wa": [3, 6], "independ": 3, "meant": 3, "could": 3, "determin": 3, "correspond": [3, 5], "further": 3, "current": [3, 7], "talker": [3, 7], "toward": 3, "practic": 3, "attribut": [3, 7], "sub": [3, 5, 7], "track": [3, 5, 7], "what": 3, "facilit": [3, 7], "reproduc": [3, 7], "research": [3, 4, 7], "offer": 3, "comprehens": [3, 7], "overview": [3, 7], "dataset": [3, 5, 6, 7], "rule": [3, 7], "furthermor": 3, "carefulli": 3, "curat": 3, "approxim": [3, 6], "design": 3, "enabl": 3, "valid": 3, "state": [3, 6, 7], "art": [3, 7], "area": 3, "april": 3, "29": 3, "registr": 3, "mai": 3, "deadlin": 3, "date": 3, "join": 3, "june": 3, "9": 3, "data": [3, 5, 6], "leaderboard": 3, "final": [3, 5, 6], "submiss": 3, "19": 3, "juli": 3, "paper": [3, 6], "decemb": 3, "12": 3, "16": 3, "asru": 3, "workshop": 3, "interest": 3, "whether": 3, "academia": 3, "must": [3, 5, 6], "regist": 3, "complet": 3, "googl": 3, "form": 3, "below": 3, "work": 3, "dai": 3, "send": 3, "invit": 3, "elig": [3, 5], "team": 3, "qualifi": 3, "adher": [3, 5], "publish": 3, "page": 3, "prior": 3, "submit": 3, "descript": [3, 6], "document": 3, "detail": [3, 6], "approach": [3, 5], "method": 3, "top": 3, "proceed": 3, "lei": 4, "xie": 4, "professor": 4, "northwestern": 4, "polytechn": 4, "univers": 4, "china": 4, "lxie": 4, "nwpu": 4, "edu": 4, "kong": 4, "aik": 4, "lee": 4, "senior": 4, "scientist": 4, "institut": 4, "infocomm": 4, "star": 4, "singapor": 4, "kongaik": 4, "ieee": 4, "org": 4, "zhiji": 4, "yan": 4, "princip": 4, "engin": 4, "alibaba": 4, "yzj": 4, "inc": 4, "shiliang": 4, "zhang": 4, "sly": 4, "zsl": 4, "yanmin": 4, "qian": 4, "shanghai": 4, "jiao": 4, "tong": 4, "yanminqian": 4, "sjtu": 4, "zhuo": 4, "chen": 4, "appli": 4, "microsoft": 4, "usa": 4, "zhuc": 4, "jian": 4, "wu": 4, "wujian": 4, "hui": 4, "bu": 4, "ceo": 4, "foundat": 4, "buhui": 4, "aishelldata": 4, "should": 5, "augment": 5, "allow": [5, 6], "ad": 5, "speed": 5, "perturb": 5, "tone": 5, "chang": 5, "permit": 5, "purpos": 5, "instead": [5, 6], "util": [5, 6], "tune": 5, "violat": 5, "strictli": [5, 6], "prohibit": [5, 6], "fine": 5, "cpcer": [5, 6], "lower": 5, "judg": 5, "superior": 5, "forc": 5, "align": 5, "obtain": [5, 6], "frame": 5, "level": 5, "classif": 5, "basi": 5, "shallow": 5, "fusion": 5, "end": 5, "e": [5, 6], "g": 5, "la": 5, "rnnt": 5, "transform": [5, 6], "come": 5, "right": 5, "interpret": 5, "belong": 5, "case": 5, "circumst": 5, "coordin": 5, "assign": 6, "illustr": 6, "aishell4": 6, "constrain": 6, "sourc": 6, "addition": 6, "corpu": 6, "soon": 6, "simpl": 6, "voic": 6, "activ": 6, "detect": 6, "vad": 6, "concaten": 6, "minimum": 6, "permut": 6, "charact": 6, "error": 6, "rate": 6, "calcul": 6, "step": 6, "firstli": 6, "refer": 6, "hypothesi": 6, "chronolog": 6, "order": 6, "secondli": 6, "cer": 6, "repeat": 6, "possibl": 6, "lowest": 6, "tthe": 6, "insert": 6, "Ins": 6, "substitut": 6, "delet": 6, "del": 6, "output": 6, "text": 6, "frac": 6, "mathcal": 6, "n_": 6, "100": 6, "where": 6, "usag": 6, "third": 6, "hug": 6, "face": 6, "list": 6, "clearli": 6, "privat": 6, "manual": 6, "simul": 6, "thei": 6, "mandatori": 6, "clear": 6, "scheme": 6, "delight": 7, "introduct": 7, "contact": 7}, "objects": {}, "objtypes": {}, "objnames": {}, "titleterms": {"baselin": 0, "overview": [0, 2], "quick": 0, "start": 0, "result": 0, "contact": 1, "dataset": 2, "train": [2, 6], "data": 2, "detail": 2, "alimeet": 2, "corpu": 2, "get": 2, "introduct": 3, "call": 3, "particip": 3, "timelin": 3, "aoe": 3, "time": 3, "guidelin": 3, "organ": 4, "rule": 5, "track": 6, "evalu": 6, "speaker": 6, "attribut": 6, "asr": 6, "metric": 6, "sub": 6, "arrang": 6, "i": 6, "fix": 6, "condit": 6, "ii": 6, "open": 6, "asru": 7, "2023": 7, "multi": 7, "channel": 7, "parti": 7, "meet": 7, "transcript": 7, "challeng": 7, "2": 7, "0": 7, "m2met2": 7, "content": 7}, "envversion": {"sphinx.domains.c": 2, "sphinx.domains.changeset": 1, "sphinx.domains.citation": 1, "sphinx.domains.cpp": 8, "sphinx.domains.index": 1, "sphinx.domains.javascript": 2, "sphinx.domains.math": 2, "sphinx.domains.python": 3, "sphinx.domains.rst": 2, "sphinx.domains.std": 2, "sphinx": 57}, "alltitles": {"Baseline": [[0, "baseline"]], "Overview": [[0, "overview"]], "Quick start": [[0, "quick-start"]], "Baseline results": [[0, "baseline-results"]], "Contact": [[1, "contact"]], "Datasets": [[2, "datasets"]], "Overview of training data": [[2, "overview-of-training-data"]], "Detail of AliMeeting corpus": [[2, "detail-of-alimeeting-corpus"]], "Get the data": [[2, "get-the-data"]], "Introduction": [[3, "introduction"]], "Call for participation": [[3, "call-for-participation"]], "Timeline(AOE Time)": [[3, "timeline-aoe-time"]], "Guidelines": [[3, "guidelines"]], "Organizers": [[4, "organizers"]], "Rules": [[5, "rules"]], "Track & Evaluation": [[6, "track-evaluation"]], "Speaker-Attributed ASR": [[6, "speaker-attributed-asr"]], "Evaluation metric": [[6, "evaluation-metric"]], "Sub-track arrangement": [[6, "sub-track-arrangement"]], "Sub-track I (Fixed Training Condition):": [[6, "sub-track-i-fixed-training-condition"]], "Sub-track II (Open Training Condition):": [[6, "sub-track-ii-open-training-condition"]], "ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0)": [[7, "asru-2023-multi-channel-multi-party-meeting-transcription-challenge-2-0-m2met2-0"]], "Contents:": [[7, null]]}, "indexentries": {}})
Search.setIndex({"docnames": ["Baseline", "Contact", "Dataset", "Introduction", "Organizers", "Rules", "Track_setting_and_evaluation", "index"], "filenames": ["Baseline.md", "Contact.md", "Dataset.md", "Introduction.md", "Organizers.md", "Rules.md", "Track_setting_and_evaluation.md", "index.rst"], "titles": ["Baseline", "Contact", "Datasets", "Introduction", "Organizers", "Rules", "Track &amp; Evaluation", "ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0)"], "terms": {"we": [0, 2, 3, 7], "releas": [0, 2, 3, 6], "an": [0, 2, 3, 6], "e2": 0, "sa": 0, "asr": [0, 3, 7], "conduct": [0, 2], "funasr": 0, "time": [0, 6], "accord": [0, 3], "timelin": [0, 2], "The": [0, 2, 3, 5, 6], "model": [0, 2, 3, 5, 6], "architectur": 0, "i": [0, 2, 3, 5], "shown": [0, 2], "figur": [0, 6], "3": [0, 2, 3], "speakerencod": 0, "initi": 0, "pre": [0, 6], "train": [0, 3, 5, 7], "speaker": [0, 2, 3, 7], "verif": 0, "from": [0, 2, 3, 5, 6], "modelscop": [0, 6], "thi": [0, 3, 5, 6], "also": [0, 2, 3, 6], "us": [0, 2, 5, 6], "extract": 0, "embed": 0, "profil": 0, "To": [0, 2, 3, 7], "run": 0, "first": 0, "you": [0, 1], "need": 0, "instal": 0, "There": [0, 2], "ar": [0, 2, 3, 5, 6, 7], "two": [0, 3, 5, 7], "startup": 0, "script": [0, 2], "sh": 0, "evalu": [0, 2, 3, 7], "old": 0, "eval": [0, 2, 5, 6], "test": [0, 2, 3, 5, 6], "set": [0, 2, 3, 5, 6], "run_m2met_2023_inf": 0, "infer": 0, "new": [0, 2, 3, 6], "multi": [0, 3, 6], "channel": [0, 3], "parti": [0, 3, 6], "meet": [0, 2, 3, 6], "transcript": [0, 2, 3, 5, 6], "2": [0, 2, 6], "0": [0, 1, 2, 3], "m2met2": [0, 1, 3], "challeng": [0, 1, 3, 5, 6], "befor": 0, "must": [0, 3, 5, 6], "manual": [0, 6], "download": [0, 2], "unpack": 0, "alimeet": [0, 1, 6], "corpu": [0, 6], "place": [0, 2], "dataset": [0, 3, 5, 6, 7], "directori": 0, "eval_ali_far": 0, "eval_ali_near": 0, "test_ali_far": 0, "test_ali_near": 0, "train_ali_far": 0, "train_ali_near": 0, "test_2023_ali_far": 0, "after": 0, "which": [0, 2, 3, 6], "contain": [0, 2, 6], "onli": [0, 2, 5, 6], "raw": 0, "audio": [0, 2, 3, 6], "Then": 0, "put": 0, "given": 0, "wav": 0, "scp": 0, "wav_raw": 0, "segment": [0, 2, 6], "utt2spk": 0, "spk2utt": 0, "data": [0, 3, 5, 6], "For": [0, 2], "more": [0, 2], "detail": [0, 3, 6], "can": [0, 2, 3, 5, 6], "see": 0, "here": 0, "system": [0, 3, 5, 6, 7], "tabl": [0, 2], "adopt": 0, "oracl": [0, 6], "dure": [0, 2, 6], "howev": [0, 3, 6], "due": [0, 3], "lack": 0, "label": [0, 5, 6], "provid": [0, 2, 6, 7], "addit": [0, 6], "spectral": 0, "cluster": 0, "meanwhil": 0, "show": 0, "impact": 0, "accuraci": [0, 6], "If": [1, 5, 6], "have": [1, 3], "ani": [1, 5, 6], "question": 1, "about": [1, 3], "pleas": 1, "u": [1, 2], "email": [1, 3, 4], "m2met": [1, 3, 6, 7], "gmail": 1, "com": [1, 4], "wechat": [1, 3], "group": [1, 2, 3], "In": [2, 3, 5], "fix": [2, 3, 7], "condit": [2, 3, 7], "restrict": 2, "three": [2, 3, 6], "publicli": [2, 6], "avail": [2, 6], "corpora": 2, "name": 2, "aishel": [2, 4, 6], "4": [2, 6], "cn": [2, 4, 6], "celeb": [2, 6], "perform": [2, 3], "call": 2, "2023": [2, 3, 5, 6], "score": [2, 6], "rank": [2, 3, 6], "describ": 2, "118": 2, "75": 2, "hour": [2, 3, 6], "speech": [2, 3, 6, 7], "total": [2, 6], "divid": [2, 6], "104": 2, "10": [2, 3, 6], "specif": [2, 6], "212": 2, "8": 2, "20": [2, 3], "session": [2, 3, 6, 7], "respect": 2, "each": [2, 3, 6], "consist": [2, 6], "15": 2, "30": 2, "minut": 2, "discuss": 2, "particip": [2, 5, 6], "number": [2, 3, 6], "456": 2, "25": 2, "60": 2, "balanc": 2, "gender": 2, "coverag": 2, "collect": 2, "13": 2, "venu": 2, "categor": 2, "type": 2, "small": 2, "medium": 2, "larg": [2, 3], "room": [2, 3], "size": 2, "rang": 2, "m": 2, "55": 2, "differ": [2, 3, 6], "give": 2, "varieti": 2, "acoust": [2, 3, 6], "properti": 2, "layout": 2, "paramet": [2, 5], "togeth": 2, "wall": 2, "materi": 2, "cover": 2, "cement": 2, "glass": 2, "etc": 2, "other": 2, "furnish": 2, "includ": [2, 3, 5, 6], "sofa": 2, "tv": 2, "blackboard": 2, "fan": 2, "air": 2, "condition": 2, "plant": 2, "record": [2, 6], "sit": 2, "around": 2, "microphon": [2, 3], "arrai": [2, 3], "natur": 2, "convers": 2, "distanc": 2, "5": 2, "all": [2, 3, 5, 6], "nativ": 2, "chines": 2, "speak": [2, 3], "mandarin": [2, 3], "without": 2, "strong": 2, "accent": 2, "variou": [2, 3], "kind": 2, "indoor": 2, "nois": [2, 3, 5], "limit": [2, 3, 5], "click": 2, "keyboard": 2, "door": 2, "open": [2, 3, 7], "close": [2, 3], "bubbl": 2, "made": [2, 3], "both": [2, 6], "requir": [2, 3, 6], "remain": [2, 3], "same": [2, 5], "posit": 2, "overlap": [2, 3], "between": [2, 6], "exampl": 2, "fig": 2, "1": 2, "within": [2, 3], "one": [2, 5], "ensur": 2, "ratio": 2, "select": [2, 3, 5, 6], "topic": 2, "medic": 2, "treatment": 2, "educ": 2, "busi": 2, "organ": [2, 3, 5, 6, 7], "manag": 2, "industri": [2, 3], "product": 2, "daili": 2, "routin": 2, "averag": 2, "42": 2, "27": 2, "34": 2, "76": 2, "A": [2, 4], "distribut": 2, "were": 2, "ident": [2, 6], "compris": [2, 3, 7], "therebi": 2, "share": 2, "similar": 2, "configur": 2, "field": [2, 3, 6], "signal": [2, 3], "headset": 2, "": [2, 6], "own": 2, "transcrib": [2, 3, 6], "It": [2, 6], "worth": [2, 6], "note": [2, 6], "far": [2, 3], "synchron": 2, "common": 2, "prepar": 2, "textgrid": 2, "format": 2, "inform": [2, 3], "durat": 2, "id": 2, "timestamp": [2, 6], "mention": 2, "abov": 2, "openslr": 2, "via": 2, "follow": [2, 5], "link": 2, "particularli": 2, "baselin": [2, 3, 7], "conveni": 2, "automat": [3, 7], "recognit": [3, 7], "diariz": 3, "signific": 3, "stride": 3, "recent": 3, "year": 3, "result": 3, "surg": 3, "technologi": 3, "applic": 3, "across": 3, "domain": 3, "present": 3, "uniqu": [3, 6], "complex": [3, 5], "divers": 3, "style": 3, "variabl": 3, "confer": 3, "environment": 3, "reverber": [3, 5], "over": 3, "sever": 3, "been": 3, "advanc": [3, 7], "develop": [3, 6], "rich": 3, "comput": [3, 5], "hear": 3, "multisourc": 3, "environ": 3, "chime": 3, "latest": 3, "iter": 3, "ha": 3, "particular": 3, "focu": 3, "distant": 3, "gener": 3, "topologi": 3, "scenario": 3, "while": 3, "progress": 3, "english": 3, "languag": [3, 5], "barrier": 3, "achiev": 3, "compar": 3, "non": 3, "multimod": 3, "base": 3, "process": [3, 6], "misp": 3, "instrument": 3, "seek": 3, "address": 3, "problem": 3, "visual": 3, "everydai": 3, "home": 3, "focus": 3, "tackl": 3, "issu": 3, "offlin": 3, "icassp2022": 3, "main": 3, "task": [3, 6, 7], "former": 3, "involv": [3, 6], "identifi": 3, "who": 3, "spoke": 3, "when": 3, "latter": 3, "aim": 3, "multipl": [3, 6], "simultan": 3, "pose": [3, 6], "technic": 3, "difficulti": 3, "interfer": 3, "build": [3, 6, 7], "success": [3, 7], "previou": 3, "excit": 3, "propos": [3, 7], "asru": 3, "special": [3, 5, 7], "origin": [3, 5], "metric": [3, 7], "wa": [3, 6], "independ": 3, "meant": 3, "could": 3, "determin": 3, "correspond": [3, 5], "further": 3, "current": [3, 7], "talker": [3, 7], "toward": 3, "practic": 3, "attribut": [3, 7], "sub": [3, 5, 7], "track": [3, 5, 7], "what": 3, "facilit": [3, 7], "reproduc": [3, 7], "research": [3, 4, 7], "offer": 3, "comprehens": [3, 7], "overview": [3, 7], "rule": [3, 7], "furthermor": 3, "carefulli": 3, "curat": 3, "approxim": [3, 6], "design": 3, "enabl": 3, "valid": 3, "state": [3, 6, 7], "art": [3, 7], "area": 3, "april": 3, "29": 3, "registr": 3, "mai": 3, "11": 3, "22": 3, "deadlin": 3, "date": 3, "join": 3, "june": 3, "16": 3, "leaderboard": 3, "final": [3, 5, 6], "submiss": 3, "leaderboar": 3, "26": 3, "juli": 3, "paper": [3, 6], "decemb": 3, "12": 3, "workshop": 3, "interest": 3, "whether": 3, "academia": 3, "regist": 3, "complet": 3, "googl": 3, "form": 3, "below": 3, "welcom": 3, "keep": 3, "up": 3, "updat": 3, "work": 3, "dai": 3, "send": 3, "invit": 3, "elig": [3, 5], "team": 3, "qualifi": 3, "adher": [3, 5], "publish": 3, "page": 3, "prior": 3, "submit": 3, "descript": [3, 6], "document": 3, "approach": [3, 5], "method": 3, "top": 3, "asru2023": [3, 7], "proceed": 3, "lei": 4, "xie": 4, "professor": 4, "foundat": 4, "china": 4, "lxie": 4, "nwpu": 4, "edu": 4, "kong": 4, "aik": 4, "lee": 4, "senior": 4, "scientist": 4, "institut": 4, "infocomm": 4, "star": 4, "singapor": 4, "kongaik": 4, "ieee": 4, "org": 4, "zhiji": 4, "yan": 4, "princip": 4, "engin": 4, "alibaba": 4, "yzj": 4, "inc": 4, "shiliang": 4, "zhang": 4, "sly": 4, "zsl": 4, "yanmin": 4, "qian": 4, "shanghai": 4, "jiao": 4, "tong": 4, "univers": 4, "yanminqian": 4, "sjtu": 4, "zhuo": 4, "chen": 4, "appli": 4, "microsoft": 4, "usa": 4, "zhuc": 4, "jian": 4, "wu": 4, "wujian": 4, "hui": 4, "bu": 4, "ceo": 4, "buhui": 4, "aishelldata": 4, "should": 5, "augment": 5, "allow": [5, 6], "ad": 5, "speed": 5, "perturb": 5, "tone": 5, "chang": 5, "permit": 5, "purpos": 5, "instead": [5, 6], "util": [5, 6], "tune": 5, "violat": 5, "strictli": [5, 6], "prohibit": [5, 6], "fine": 5, "cpcer": [5, 6], "lower": 5, "judg": 5, "superior": 5, "forc": 5, "align": 5, "obtain": [5, 6], "frame": 5, "level": 5, "classif": 5, "basi": 5, "shallow": 5, "fusion": 5, "end": 5, "e": [5, 6], "g": 5, "la": 5, "rnnt": 5, "transform": [5, 6], "come": 5, "right": 5, "interpret": 5, "belong": 5, "case": 5, "circumst": 5, "coordin": 5, "assign": 6, "illustr": 6, "aishell4": 6, "constrain": 6, "sourc": 6, "addition": 6, "soon": 6, "simpl": 6, "voic": 6, "activ": 6, "detect": 6, "vad": 6, "concaten": 6, "minimum": 6, "permut": 6, "charact": 6, "error": 6, "rate": 6, "calcul": 6, "step": 6, "firstli": 6, "refer": 6, "hypothesi": 6, "chronolog": 6, "order": 6, "secondli": 6, "cer": 6, "repeat": 6, "possibl": 6, "lowest": 6, "tthe": 6, "insert": 6, "Ins": 6, "substitut": 6, "delet": 6, "del": 6, "output": 6, "text": 6, "frac": 6, "mathcal": 6, "n_": 6, "100": 6, "where": 6, "usag": 6, "third": 6, "hug": 6, "face": 6, "list": 6, "clearli": 6, "privat": 6, "simul": 6, "thei": 6, "mandatori": 6, "clear": 6, "scheme": 6, "delight": 7, "introduct": 7, "contact": 7}, "objects": {}, "objtypes": {}, "objnames": {}, "titleterms": {"baselin": 0, "overview": [0, 2], "quick": 0, "start": 0, "result": 0, "contact": 1, "dataset": 2, "train": [2, 6], "data": 2, "detail": 2, "alimeet": 2, "corpu": 2, "get": 2, "introduct": 3, "call": 3, "particip": 3, "timelin": 3, "aoe": 3, "time": 3, "guidelin": 3, "organ": 4, "rule": 5, "track": 6, "evalu": 6, "speaker": 6, "attribut": 6, "asr": 6, "metric": 6, "sub": 6, "arrang": 6, "i": 6, "fix": 6, "condit": 6, "ii": 6, "open": 6, "asru": 7, "2023": 7, "multi": 7, "channel": 7, "parti": 7, "meet": 7, "transcript": 7, "challeng": 7, "2": 7, "0": 7, "m2met2": 7, "content": 7}, "envversion": {"sphinx.domains.c": 2, "sphinx.domains.changeset": 1, "sphinx.domains.citation": 1, "sphinx.domains.cpp": 8, "sphinx.domains.index": 1, "sphinx.domains.javascript": 2, "sphinx.domains.math": 2, "sphinx.domains.python": 3, "sphinx.domains.rst": 2, "sphinx.domains.std": 2, "sphinx": 57}, "alltitles": {"Baseline": [[0, "baseline"]], "Overview": [[0, "overview"]], "Quick start": [[0, "quick-start"]], "Baseline results": [[0, "baseline-results"]], "Contact": [[1, "contact"]], "Datasets": [[2, "datasets"]], "Overview of training data": [[2, "overview-of-training-data"]], "Detail of AliMeeting corpus": [[2, "detail-of-alimeeting-corpus"]], "Get the data": [[2, "get-the-data"]], "Introduction": [[3, "introduction"]], "Call for participation": [[3, "call-for-participation"]], "Timeline(AOE Time)": [[3, "timeline-aoe-time"]], "Guidelines": [[3, "guidelines"]], "Organizers": [[4, "organizers"]], "Rules": [[5, "rules"]], "Track & Evaluation": [[6, "track-evaluation"]], "Speaker-Attributed ASR": [[6, "speaker-attributed-asr"]], "Evaluation metric": [[6, "evaluation-metric"]], "Sub-track arrangement": [[6, "sub-track-arrangement"]], "Sub-track I (Fixed Training Condition):": [[6, "sub-track-i-fixed-training-condition"]], "Sub-track II (Open Training Condition):": [[6, "sub-track-ii-open-training-condition"]], "ASRU 2023 MULTI-CHANNEL MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0 (M2MeT2.0)": [[7, "asru-2023-multi-channel-multi-party-meeting-transcription-challenge-2-0-m2met2-0"]], "Contents:": [[7, null]]}, "indexentries": {}})
docs/m2met2/conf.py
@@ -7,7 +7,7 @@
# -- Project information -----------------------------------------------------
# https://www.sphinx-doc.org/en/master/usage/configuration.html#project-information
project = 'm2met2'
project = 'MULTI-PARTY MEETING TRANSCRIPTION CHALLENGE 2.0'
copyright = '2023, Speech Lab, Alibaba Group; ASLP Group, Northwestern Polytechnical University'
author = 'Speech Lab, Alibaba Group; Audio, Speech and Language Processing Group, Northwestern Polytechnical University'
docs/m2met2/images/baseline_result.png

docs/m2met2/images/qrcode.png
docs/m2met2_cn/_build/doctrees/environment.pickle
Binary files differ
docs/m2met2_cn/_build/doctrees/index.doctree
Binary files differ
docs/m2met2_cn/_build/doctrees/»ùÏß.doctree
Binary files differ
docs/m2met2_cn/_build/doctrees/¼ò½é.doctree
Binary files differ
docs/m2met2_cn/_build/doctrees/ÁªÏµ·½Ê½.doctree
Binary files differ
docs/m2met2_cn/_build/doctrees/ÈüµÀÉèÖÃÓëÆÀ¹À.doctree
Binary files differ
docs/m2met2_cn/_build/html/.buildinfo
@@ -1,4 +1,4 @@
# Sphinx build info version 1
# This file hashes the configuration used when building these files. When it is not found, a full rebuild will be done.
config: 5462207d1656a9ae4ca43c2890d094be
config: 06d9c1d4093817b45b9d4df7ab350eaf
tags: 645f666f9bcd5a90fca523b33c5a78b7
docs/m2met2_cn/_build/html/_images/baseline_result.png

docs/m2met2_cn/_build/html/_images/qrcode.png
docs/m2met2_cn/_build/html/_sources/index.rst.txt
@@ -5,8 +5,8 @@
ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0
==================================================================================
在上一届M2MET竞赛成功举办的基础上,我们将在ASRU2023上继续举办M2MET2.0挑战赛。
为了将现在的多说话人语音识别系统推向实用化,M2MET2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。
在上一届M2MeT竞赛成功举办的基础上,我们将在ASRU2023上继续举办M2MeT2.0挑战赛。
为了将现在的多说话人语音识别系统推向实用化,M2MeT2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。
我们对数据集、规则、基线系统和评估方法进行了详细介绍,以进一步促进多说话人语音识别领域研究的发展。
.. toctree::
docs/m2met2_cn/_build/html/_sources/»ùÏß.md.txt
@@ -5,8 +5,29 @@
![model archietecture](images/sa_asr_arch.png)
## å¿«é€Ÿå¼€å§‹
#TODO: fill with the README.md of the baseline
首先需要安装FunASR和ModelScope. ([installation](https://alibaba-damo-academy.github.io/FunASR/en/installation.html))
基线系统有训练和测试两个脚本,`run.sh`是用于训练基线系统并在M2MeT的验证与测试集上评估的,而`run_m2met_2023_infer.sh`用于此次竞赛预备开放的全新测试集上测试同时生成符合竞赛最终提交格式的文件。
在运行 `run.sh`前,需要自行下载并解压[AliMeeting](http://www.openslr.org/119/)数据集并放置于`./dataset`目录下:
```shell
dataset
|—— Eval_Ali_far
|—— Eval_Ali_near
|—— Test_Ali_far
|—— Test_Ali_near
|—— Train_Ali_far
|—— Train_Ali_near
```
在运行`run_m2met_2023_infer.sh`前, éœ€è¦å°†æµ‹è¯•集`Test_2023_Ali_far`(仅包含音频,将于6.16发布)放置于`./dataset`目录下。然后将主办方提供的`wav.scp`,`wav_raw.scp`,`segments`,`utt2spk`和`spk2utt`放置于`./data/Test_2023_Ali_far`目录下。
```shell
data/Test_2023_Ali_far
|—— wav.scp
|—— wav_raw.scp
|—— segments
|—— utt2spk
|—— spk2utt
```
更多基线系统详情见[此处](https://github.com/alibaba-damo-academy/FunASR/blob/main/egs/alimeeting/sa-asr/README.md)
## åŸºçº¿ç»“æžœ
基线系统的结果如表3所示。在训练期间,说话人档案采用了真实说话人嵌入。然而由于在评估过程中缺乏真实说话人标签,因此使用了由额外的谱聚类提供的说话人特征。同时我们还提供了在评估和测试集上使用真实说话人档案的结果,以显示说话人档案准确性的影响。
![baseline result](images/baseline_result.png)
![baseline_result](images/baseline_result.png)
docs/m2met2_cn/_build/html/_sources/¼ò½é.md.txt
@@ -1,32 +1,33 @@
# ç®€ä»‹
## ç«žèµ›ä»‹ç»
语音识别(Automatic Speech Recognition)、说话人日志(Speaker Diarization)等语音处理技术的最新发展激发了众多智能语音的广泛应用。然而会议场景由于其复杂的声学条件和不同的讲话风格,包括重叠的讲话、不同数量的发言者、大会议室的远场信号以及环境噪声和混响,仍然属于一项极具挑战性的任务。
为了推动会议场景语音识别的发展,已经有很多相关的挑战赛,如 Rich Transcription evaluation å’Œ CHIME(Computational Hearing in Multisource Environments) æŒ‘战赛。最新的CHIME挑战赛关注于远距离自动语音识别和开发能在各种不同拓扑结构的阵列和应用场景中通用的系统。然而不同语言之间的差异限制了非英语会议转录的进展。MISP(Multimodal Information Based Speech Processing)和M2MeT(Multi-Channel Multi-Party Meeting Transcription)挑战赛为推动普通话会议场景语音识别做出了贡献。MISP挑战赛侧重于用视听多模态的方法解决日常家庭环境中的远距离多麦克风信号处理问题,而M2MeT挑战则侧重于解决离线会议室中会议转录的语音重叠问题。
ASSP2022 M2MeT挑战的侧重点是会议场景,它包括两个赛道:说话人日记和多说话人自动语音识别。前者涉及识别“谁在什么时候说了话”,而后者旨在同时识别来自多个说话人的语音,语音重叠和各种噪声带来了巨大的技术困难。
IASSP2022 M2MeT挑战的侧重点是会议场景,它包括两个赛道:说话人日记和多说话人自动语音识别。前者涉及识别“谁在什么时候说了话”,而后者旨在同时识别来自多个说话人的语音,语音重叠和各种噪声带来了巨大的技术困难。
在上一届M2MET成功举办的基础上,我们将在ASRU2023上继续举办M2MET2.0挑战赛。在上一届M2MET挑战赛中,评估指标是说话人无关的,我们只能得到识别文本,而不能确定相应的说话人。
为了解决这一局限性并将现在的多说话人语音识别系统推向实用化,M2MET2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。通过将语音归属于特定的说话人,这项任务旨在提高多说话人ASR系统在真实世界环境中的准确性和适用性。
在上一届M2MeT成功举办的基础上,我们将在ASRU 2023上继续举办M2MeT2.0挑战赛。在上一届M2MeT挑战赛中,评估指标是说话人无关的,我们只能得到识别文本,而不能确定相应的说话人。
为了解决这一局限性并将现在的多说话人语音识别系统推向实用化,M2MeT2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。通过将语音归属于特定的说话人,这项任务旨在提高多说话人ASR系统在真实世界环境中的准确性和适用性。
我们对数据集、规则、基线系统和评估方法进行了详细介绍,以进一步促进多说话人语音识别领域研究的发展。此外,我们将根据时间表发布一个全新的测试集,包括大约10小时的音频。
## æ—¶é—´å®‰æŽ’(AOE时间)
- $ 2023.4.29: $ å¼€æ”¾æ³¨å†Œ
- $ 2023.5.8: $ åŸºçº¿å‘布
- $ 2023.5.15: $ æ³¨å†Œæˆªæ­¢
- $ 2023.6.9: $ æµ‹è¯•集数据发布
- $ 2023.6.13: $ æœ€ç»ˆç»“果提交截止
- $ 2023.6.19: $ è¯„估结果和排名发布
- $ 2023.7.3: $ è®ºæ–‡æäº¤æˆªæ­¢
- $ 2023.7.10: $ æœ€ç»ˆç‰ˆè®ºæ–‡æäº¤æˆªæ­¢
- $ 2023.12.12: $ ASRU Workshop & challenge session
- $ 2023.5.11: $ åŸºçº¿å‘布
- $ 2023.5.22: $ æ³¨å†Œæˆªæ­¢
- $ 2023.6.16: $ æµ‹è¯•集数据发布,排行榜开放
- $ 2023.6.20: $ æœ€ç»ˆç»“果提交截止,排行榜关闭
- $ 2023.6.26: $ è¯„估结果和排名发布
- $ 2023.7.3: $ è®ºæ–‡æäº¤æˆªæ­¢ï¼ˆé€šè¿‡ASRU2023官方投稿,选择竞赛Session)
- $ 2023.7.10: $ æœ€ç»ˆç‰ˆè®ºæ–‡æäº¤æˆªæ­¢ï¼ˆé€šè¿‡ASRU2023官方投稿,选择竞赛Session)
- $ 2023.12.12: $ ASRU Workshop & Challenge Session
## ç«žèµ›æŠ¥å
来自学术界和工业界的有意向参赛者均应在2023年5月15日及之前填写下方的谷歌表单:
来自学术界和工业界的有意向参赛者均应在2023年5月22日及之前填写下方的谷歌表单。同时欢迎广大参赛者加入[官方交流微信群](https://alibaba-damo-academy.github.io/FunASR/m2met2_cn/%E8%81%94%E7%B3%BB%E6%96%B9%E5%BC%8F.html)交流并及时获取竞赛最新消息:
[M2MET2.0报名](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
[M2MeT2.0报名](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
主办方将在3个工作日内通过电子邮件通知符合条件的参赛团队,团队必须遵守将在挑战网站上发布的挑战规则。在排名发布之前,每个参赛者必须提交一份系统描述文件,详细说明使用的方法和模型。主办方将选择前三名纳入ASRU2023论文集。
主办方将在3个工作日内通过电子邮件通知符合条件的参赛团队,团队必须遵守将在挑战网站上发布的挑战规则。在排名发布之前,每个参赛者必须提交一份系统描述文件,详细说明使用的方法和模型。主办方将排名前列的队伍纳入ASRU2023论文集。
docs/m2met2_cn/_build/html/_sources/ÁªÏµ·½Ê½.md.txt
@@ -1,9 +1,9 @@
# è”系方式
如果对M2MET2.0竞赛有任何疑问,欢迎通过以下方式联系我们:
如果对M2MeT2.0竞赛有任何疑问,欢迎通过以下方式联系我们:
- é‚®ä»¶: [m2met.alimeeting@gmail.com](mailto:m2met.alimeeting@gmail.com)
|              M2MET2.0竞赛官方微信群         |
|              M2MeT2.0竞赛官方微信群         |
|:------------------------------------------:|
<!-- | <img src="images/wechat.png" width="300"/> | -->
| <img src="images/qrcode.png" width="300"/> |
docs/m2met2_cn/_build/html/_sources/ÈüµÀÉèÖÃÓëÆÀ¹À.md.txt
@@ -1,6 +1,6 @@
# èµ›é“设置与评估
## è¯´è¯äººç›¸å…³çš„语音识别
说话人相关的ASR任务需要从重叠的语音中识别每个说话人的语音,并为识别内容分配一个说话人标签。图2展示了说话人相关语音识别任务和多说话人语音识别任务的主要区别。在本次竞赛中AliMeeting、Aishell4和Cn-Celeb数据集可作为受限数据源。在M2MeT挑战赛中使用的AliMeeting数据集包含训练、评估和测试集,在M2MET2.0可以在训练和评估中使用。此外,一个包含约10小时会议数据的新的Test-2023集将根据赛程安排发布并用于挑战赛的评分和排名。值得注意的是,对于Test-2023测试集,主办方将不再提供耳机的近场音频、转录以及真实时间戳。而是提供可以通过一个简单的VAD模型得到的包含多个说话人的片段。
说话人相关的ASR任务需要从重叠的语音中识别每个说话人的语音,并为识别内容分配一个说话人标签。图2展示了说话人相关语音识别任务和多说话人语音识别任务的主要区别。在本次竞赛中AliMeeting、Aishell4和Cn-Celeb数据集可作为受限数据源。在M2MeT挑战赛中使用的AliMeeting数据集包含训练、评估和测试集,在M2MeT2.0可以在训练和评估中使用。此外,一个包含约10小时会议数据的新的Test-2023集将根据赛程安排发布并用于挑战赛的评分和排名。值得注意的是,对于Test-2023测试集,主办方将不再提供耳机的近场音频、转录以及真实时间戳。而是提供可以通过一个简单的VAD模型得到的包含多个说话人的片段。
![task difference](images/task_diff.png)
docs/m2met2_cn/_build/html/genindex.html
@@ -14,7 +14,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>索引 &#8212; m2met2  æ–‡æ¡£</title>
    <title>索引 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -36,7 +36,7 @@
        <li class="right" style="margin-right: 10px">
          <a href="#" title="总索引"
             accesskey="I">索引</a></li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">索引</a></li> 
      </ul>
    </div>
@@ -47,7 +47,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -133,7 +133,7 @@
        <li class="right" style="margin-right: 10px">
          <a href="#" title="总索引"
             >索引</a></li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">索引</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/index.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0 &#8212; m2met2  æ–‡æ¡£</title>
    <title>ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -41,7 +41,7 @@
        <li class="right" >
          <a href="%E7%AE%80%E4%BB%8B.html" title="简介"
             accesskey="N">下一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="#">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="#">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0</a></li> 
      </ul>
    </div>
@@ -52,7 +52,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    #" class="text-logo">m2met2  æ–‡æ¡£</a>
    #" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -121,8 +121,8 @@
            
  <section id="asru-2023-2-0">
<h1>ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0<a class="headerlink" href="#asru-2023-2-0" title="此标题的永久链接">¶</a></h1>
<p>在上一届M2MET竞赛成功举办的基础上,我们将在ASRU2023上继续举办M2MET2.0挑战赛。
为了将现在的多说话人语音识别系统推向实用化,M2MET2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。
<p>在上一届M2MeT竞赛成功举办的基础上,我们将在ASRU2023上继续举办M2MeT2.0挑战赛。
为了将现在的多说话人语音识别系统推向实用化,M2MeT2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。
我们对数据集、规则、基线系统和评估方法进行了详细介绍,以进一步促进多说话人语音识别领域研究的发展。</p>
<div class="toctree-wrapper compound">
<p class="caption" role="heading"><span class="caption-text">目录:</span></p>
@@ -161,7 +161,7 @@
        <li class="right" >
          <a href="%E7%AE%80%E4%BB%8B.html" title="简介"
             >下一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="#">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="#">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/objects.inv
Binary files differ
docs/m2met2_cn/_build/html/search.html
@@ -14,7 +14,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>搜索 &#8212; m2met2  æ–‡æ¡£</title>
    <title>搜索 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    
@@ -42,7 +42,7 @@
        <li class="right" style="margin-right: 10px">
          <a href="genindex.html" title="总索引"
             accesskey="I">索引</a></li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">搜索</a></li> 
      </ul>
    </div>
@@ -53,7 +53,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-toc">
    
@@ -149,7 +149,7 @@
        <li class="right" style="margin-right: 10px">
          <a href="genindex.html" title="总索引"
             >索引</a></li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">搜索</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/searchindex.js
@@ -1 +1 @@
Search.setIndex({"docnames": ["index", "\u57fa\u7ebf", "\u6570\u636e\u96c6", "\u7b80\u4ecb", "\u7ec4\u59d4\u4f1a", "\u8054\u7cfb\u65b9\u5f0f", "\u89c4\u5219", "\u8d5b\u9053\u8bbe\u7f6e\u4e0e\u8bc4\u4f30"], "filenames": ["index.rst", "\u57fa\u7ebf.md", "\u6570\u636e\u96c6.md", "\u7b80\u4ecb.md", "\u7ec4\u59d4\u4f1a.md", "\u8054\u7cfb\u65b9\u5f0f.md", "\u89c4\u5219.md", "\u8d5b\u9053\u8bbe\u7f6e\u4e0e\u8bc4\u4f30.md"], "titles": ["ASRU 2023 \u591a\u901a\u9053\u591a\u65b9\u4f1a\u8bae\u8f6c\u5f55\u6311\u6218 2.0", "\u57fa\u7ebf", "\u6570\u636e\u96c6", "\u7b80\u4ecb", "\u7ec4\u59d4\u4f1a", "\u8054\u7cfb\u65b9\u5f0f", "\u7ade\u8d5b\u89c4\u5219", "\u8d5b\u9053\u8bbe\u7f6e\u4e0e\u8bc4\u4f30"], "terms": {"m2met": [0, 3, 5, 7], "asru2023": [0, 3], "m2met2": [0, 3, 5, 7], "funasr": 1, "sa": 1, "asr": [1, 3, 7], "speakerencod": 1, "modelscop": [1, 7], "todo": 1, "fill": 1, "with": 1, "the": 1, "readm": 1, "md": 1, "of": 1, "baselin": [1, 2], "aishel": [2, 7], "cn": [2, 4, 7], "celeb": [2, 7], "test": [2, 6, 7], "2023": [2, 3, 6, 7], "118": 2, "75": 2, "104": 2, "train": 2, "eval": [2, 6], "10": [2, 3, 7], "212": 2, "15": [2, 3], "30": 2, "456": 2, "25": 2, "13": [2, 3], "55": 2, "42": 2, "27": 2, "34": 2, "76": 2, "20": 2, "textgrid": 2, "id": 2, "openslr": 2, "automat": 3, "speech": 3, "recognit": 3, "speaker": 3, "diariz": 3, "rich": 3, "transcript": 3, "evalu": 3, "chime": 3, "comput": 3, "hear": 3, "in": 3, "multisourc": 3, "environ": 3, "misp": 3, "multimod": 3, "inform": 3, "base": 3, "process": 3, "multi": 3, "channel": 3, "parti": 3, "meet": 3, "assp2022": 3, "29": 3, "19": 3, "12": 3, "asru": 3, "workshop": 3, "challeng": 3, "session": 3, "lxie": 4, "nwpu": 4, "edu": 4, "kong": 4, "aik": 4, "lee": 4, "star": 4, "kongaik": 4, "ieee": 4, "org": 4, "zhiji": 4, "yzj": 4, "alibaba": 4, "inc": 4, "com": [4, 5], "sli": 4, "zsl": 4, "yanminqian": 4, "sjtu": 4, "zhuc": 4, "microsoft": 4, "wujian": 4, "ceo": 4, "buhui": 4, "aishelldata": 4, "alimeet": [5, 7], "gmail": 5, "cpcer": [6, 7], "las": 6, "rnnt": 6, "transform": 6, "aishell4": 7, "vad": 7, "cer": 7, "ins": 7, "sub": 7, "del": 7, "text": 7, "frac": 7, "mathcal": 7, "n_": 7, "total": 7, "time": 7, "100": 7, "hug": 7, "face": 7}, "objects": {}, "objtypes": {}, "objnames": {}, "titleterms": {"asru": 0, "2023": 0, "alimeet": 2, "aoe": 3}, "envversion": {"sphinx.domains.c": 2, "sphinx.domains.changeset": 1, "sphinx.domains.citation": 1, "sphinx.domains.cpp": 8, "sphinx.domains.index": 1, "sphinx.domains.javascript": 2, "sphinx.domains.math": 2, "sphinx.domains.python": 3, "sphinx.domains.rst": 2, "sphinx.domains.std": 2, "sphinx": 57}, "alltitles": {"ASRU 2023 \u591a\u901a\u9053\u591a\u65b9\u4f1a\u8bae\u8f6c\u5f55\u6311\u6218 2.0": [[0, "asru-2023-2-0"]], "\u76ee\u5f55:": [[0, null]], "\u57fa\u7ebf": [[1, "id1"]], "\u57fa\u7ebf\u6982\u8ff0": [[1, "id2"]], "\u5feb\u901f\u5f00\u59cb": [[1, "id3"]], "\u57fa\u7ebf\u7ed3\u679c": [[1, "id4"]], "\u6570\u636e\u96c6": [[2, "id1"]], "\u6570\u636e\u96c6\u6982\u8ff0": [[2, "id2"]], "Alimeeting\u6570\u636e\u96c6\u4ecb\u7ecd": [[2, "alimeeting"]], "\u83b7\u53d6\u6570\u636e": [[2, "id3"]], "\u7b80\u4ecb": [[3, "id1"]], "\u7ade\u8d5b\u4ecb\u7ecd": [[3, "id2"]], "\u65f6\u95f4\u5b89\u6392(AOE\u65f6\u95f4)": [[3, "aoe"]], "\u7ade\u8d5b\u62a5\u540d": [[3, "id3"]], "\u7ec4\u59d4\u4f1a": [[4, "id1"]], "\u8054\u7cfb\u65b9\u5f0f": [[5, "id1"]], "\u7ade\u8d5b\u89c4\u5219": [[6, "id1"]], "\u8d5b\u9053\u8bbe\u7f6e\u4e0e\u8bc4\u4f30": [[7, "id1"]], "\u8bf4\u8bdd\u4eba\u76f8\u5173\u7684\u8bed\u97f3\u8bc6\u522b": [[7, "id2"]], "\u8bc4\u4f30\u65b9\u6cd5": [[7, "id3"]], "\u5b50\u8d5b\u9053\u8bbe\u7f6e": [[7, "id4"]], "\u5b50\u8d5b\u9053\u4e00 (\u9650\u5b9a\u8bad\u7ec3\u6570\u636e):": [[7, "id5"]], "\u5b50\u8d5b\u9053\u4e8c (\u5f00\u653e\u8bad\u7ec3\u6570\u636e):": [[7, "id6"]]}, "indexentries": {}})
Search.setIndex({"docnames": ["index", "\u57fa\u7ebf", "\u6570\u636e\u96c6", "\u7b80\u4ecb", "\u7ec4\u59d4\u4f1a", "\u8054\u7cfb\u65b9\u5f0f", "\u89c4\u5219", "\u8d5b\u9053\u8bbe\u7f6e\u4e0e\u8bc4\u4f30"], "filenames": ["index.rst", "\u57fa\u7ebf.md", "\u6570\u636e\u96c6.md", "\u7b80\u4ecb.md", "\u7ec4\u59d4\u4f1a.md", "\u8054\u7cfb\u65b9\u5f0f.md", "\u89c4\u5219.md", "\u8d5b\u9053\u8bbe\u7f6e\u4e0e\u8bc4\u4f30.md"], "titles": ["ASRU 2023 \u591a\u901a\u9053\u591a\u65b9\u4f1a\u8bae\u8f6c\u5f55\u6311\u6218 2.0", "\u57fa\u7ebf", "\u6570\u636e\u96c6", "\u7b80\u4ecb", "\u7ec4\u59d4\u4f1a", "\u8054\u7cfb\u65b9\u5f0f", "\u7ade\u8d5b\u89c4\u5219", "\u8d5b\u9053\u8bbe\u7f6e\u4e0e\u8bc4\u4f30"], "terms": {"m2met": [0, 1, 3, 5, 7], "asru2023": [0, 3], "m2met2": [0, 3, 5, 7], "funasr": 1, "sa": 1, "asr": [1, 3, 7], "speakerencod": 1, "modelscop": [1, 7], "instal": 1, "run": 1, "sh": 1, "run_m2met_2023_inf": 1, "alimeet": [1, 5, 7], "dataset": 1, "eval_ali_far": 1, "eval_ali_near": 1, "test_ali_far": 1, "test_ali_near": 1, "train_ali_far": 1, "train_ali_near": 1, "test_2023_ali_far": 1, "16": [1, 3], "wav": 1, "scp": 1, "wav_raw": 1, "segment": 1, "utt2spk": 1, "spk2utt": 1, "data": 1, "aishel": [2, 7], "cn": [2, 4, 7], "celeb": [2, 7], "test": [2, 6, 7], "2023": [2, 3, 6, 7], "118": 2, "75": 2, "104": 2, "train": 2, "eval": [2, 6], "10": [2, 3, 7], "212": 2, "15": 2, "30": 2, "456": 2, "25": 2, "13": 2, "55": 2, "42": 2, "27": 2, "34": 2, "76": 2, "20": [2, 3], "textgrid": 2, "id": 2, "openslr": 2, "baselin": 2, "automat": 3, "speech": 3, "recognit": 3, "speaker": 3, "diariz": 3, "rich": 3, "transcript": 3, "evalu": 3, "chime": 3, "comput": 3, "hear": 3, "in": 3, "multisourc": 3, "environ": 3, "misp": 3, "multimod": 3, "inform": 3, "base": 3, "process": 3, "multi": 3, "channel": 3, "parti": 3, "meet": 3, "iassp2022": 3, "asru": 3, "29": 3, "11": 3, "22": 3, "26": 3, "session": 3, "12": 3, "workshop": 3, "challeng": 3, "lxie": 4, "nwpu": 4, "edu": 4, "kong": 4, "aik": 4, "lee": 4, "star": 4, "kongaik": 4, "ieee": 4, "org": 4, "zhiji": 4, "yzj": 4, "alibaba": 4, "inc": 4, "com": [4, 5], "sli": 4, "zsl": 4, "yanminqian": 4, "sjtu": 4, "zhuc": 4, "microsoft": 4, "wujian": 4, "ceo": 4, "buhui": 4, "aishelldata": 4, "gmail": 5, "cpcer": [6, 7], "las": 6, "rnnt": 6, "transform": 6, "aishell4": 7, "vad": 7, "cer": 7, "ins": 7, "sub": 7, "del": 7, "text": 7, "frac": 7, "mathcal": 7, "n_": 7, "total": 7, "time": 7, "100": 7, "hug": 7, "face": 7}, "objects": {}, "objtypes": {}, "objnames": {}, "titleterms": {"asru": 0, "2023": 0, "alimeet": 2, "aoe": 3}, "envversion": {"sphinx.domains.c": 2, "sphinx.domains.changeset": 1, "sphinx.domains.citation": 1, "sphinx.domains.cpp": 8, "sphinx.domains.index": 1, "sphinx.domains.javascript": 2, "sphinx.domains.math": 2, "sphinx.domains.python": 3, "sphinx.domains.rst": 2, "sphinx.domains.std": 2, "sphinx": 57}, "alltitles": {"ASRU 2023 \u591a\u901a\u9053\u591a\u65b9\u4f1a\u8bae\u8f6c\u5f55\u6311\u6218 2.0": [[0, "asru-2023-2-0"]], "\u76ee\u5f55:": [[0, null]], "\u57fa\u7ebf": [[1, "id1"]], "\u57fa\u7ebf\u6982\u8ff0": [[1, "id2"]], "\u5feb\u901f\u5f00\u59cb": [[1, "id3"]], "\u57fa\u7ebf\u7ed3\u679c": [[1, "id4"]], "\u6570\u636e\u96c6": [[2, "id1"]], "\u6570\u636e\u96c6\u6982\u8ff0": [[2, "id2"]], "Alimeeting\u6570\u636e\u96c6\u4ecb\u7ecd": [[2, "alimeeting"]], "\u83b7\u53d6\u6570\u636e": [[2, "id3"]], "\u7b80\u4ecb": [[3, "id1"]], "\u7ade\u8d5b\u4ecb\u7ecd": [[3, "id2"]], "\u65f6\u95f4\u5b89\u6392(AOE\u65f6\u95f4)": [[3, "aoe"]], "\u7ade\u8d5b\u62a5\u540d": [[3, "id3"]], "\u7ec4\u59d4\u4f1a": [[4, "id1"]], "\u8054\u7cfb\u65b9\u5f0f": [[5, "id1"]], "\u7ade\u8d5b\u89c4\u5219": [[6, "id1"]], "\u8d5b\u9053\u8bbe\u7f6e\u4e0e\u8bc4\u4f30": [[7, "id1"]], "\u8bf4\u8bdd\u4eba\u76f8\u5173\u7684\u8bed\u97f3\u8bc6\u522b": [[7, "id2"]], "\u8bc4\u4f30\u65b9\u6cd5": [[7, "id3"]], "\u5b50\u8d5b\u9053\u8bbe\u7f6e": [[7, "id4"]], "\u5b50\u8d5b\u9053\u4e00 (\u9650\u5b9a\u8bad\u7ec3\u6570\u636e):": [[7, "id5"]], "\u5b50\u8d5b\u9053\u4e8c (\u5f00\u653e\u8bad\u7ec3\u6570\u636e):": [[7, "id6"]]}, "indexentries": {}})
docs/m2met2_cn/_build/html/»ùÏß.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>基线 &#8212; m2met2  æ–‡æ¡£</title>
    <title>基线 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -45,7 +45,7 @@
        <li class="right" >
          <a href="%E8%B5%9B%E9%81%93%E8%AE%BE%E7%BD%AE%E4%B8%8E%E8%AF%84%E4%BC%B0.html" title="赛道设置与评估"
             accesskey="P">上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">基线</a></li> 
      </ul>
    </div>
@@ -56,7 +56,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -132,12 +132,33 @@
</section>
<section id="id3">
<h2>快速开始<a class="headerlink" href="#id3" title="此标题的永久链接">¶</a></h2>
<p>#TODO: fill with the README.md of the baseline</p>
<p>首先需要安装FunASR和ModelScope. (<a class="reference external" href="https://alibaba-damo-academy.github.io/FunASR/en/installation.html">installation</a>)<br />
基线系统有训练和测试两个脚本,<code class="docutils literal notranslate"><span class="pre">run.sh</span></code>是用于训练基线系统并在M2MeT的验证与测试集上评估的,而<code class="docutils literal notranslate"><span class="pre">run_m2met_2023_infer.sh</span></code>用于此次竞赛预备开放的全新测试集上测试同时生成符合竞赛最终提交格式的文件。
在运行 <code class="docutils literal notranslate"><span class="pre">run.sh</span></code>前,需要自行下载并解压<a class="reference external" href="http://www.openslr.org/119/">AliMeeting</a>数据集并放置于<code class="docutils literal notranslate"><span class="pre">./dataset</span></code>目录下:</p>
<div class="highlight-shell notranslate"><div class="highlight"><pre><span></span>dataset
<span class="p">|</span>——<span class="w"> </span>Eval_Ali_far
<span class="p">|</span>——<span class="w"> </span>Eval_Ali_near
<span class="p">|</span>——<span class="w"> </span>Test_Ali_far
<span class="p">|</span>——<span class="w"> </span>Test_Ali_near
<span class="p">|</span>——<span class="w"> </span>Train_Ali_far
<span class="p">|</span>——<span class="w"> </span>Train_Ali_near
</pre></div>
</div>
<p>在运行<code class="docutils literal notranslate"><span class="pre">run_m2met_2023_infer.sh</span></code>前, éœ€è¦å°†æµ‹è¯•集<code class="docutils literal notranslate"><span class="pre">Test_2023_Ali_far</span></code>(仅包含音频,将于6.16发布)放置于<code class="docutils literal notranslate"><span class="pre">./dataset</span></code>目录下。然后将主办方提供的<code class="docutils literal notranslate"><span class="pre">wav.scp</span></code>,<code class="docutils literal notranslate"><span class="pre">wav_raw.scp</span></code>,<code class="docutils literal notranslate"><span class="pre">segments</span></code>,<code class="docutils literal notranslate"><span class="pre">utt2spk</span></code>和<code class="docutils literal notranslate"><span class="pre">spk2utt</span></code>放置于<code class="docutils literal notranslate"><span class="pre">./data/Test_2023_Ali_far</span></code>目录下。</p>
<div class="highlight-shell notranslate"><div class="highlight"><pre><span></span>data/Test_2023_Ali_far
<span class="p">|</span>——<span class="w"> </span>wav.scp
<span class="p">|</span>——<span class="w"> </span>wav_raw.scp
<span class="p">|</span>——<span class="w"> </span>segments
<span class="p">|</span>——<span class="w"> </span>utt2spk
<span class="p">|</span>——<span class="w"> </span>spk2utt
</pre></div>
</div>
<p>更多基线系统详情见<a class="reference external" href="https://github.com/alibaba-damo-academy/FunASR/blob/main/egs/alimeeting/sa-asr/README.md">此处</a></p>
</section>
<section id="id4">
<h2>基线结果<a class="headerlink" href="#id4" title="此标题的永久链接">¶</a></h2>
<p>基线系统的结果如表3所示。在训练期间,说话人档案采用了真实说话人嵌入。然而由于在评估过程中缺乏真实说话人标签,因此使用了由额外的谱聚类提供的说话人特征。同时我们还提供了在评估和测试集上使用真实说话人档案的结果,以显示说话人档案准确性的影响。
<img alt="baseline result" src="_images/baseline_result.png" /></p>
<p>基线系统的结果如表3所示。在训练期间,说话人档案采用了真实说话人嵌入。然而由于在评估过程中缺乏真实说话人标签,因此使用了由额外的谱聚类提供的说话人特征。同时我们还提供了在评估和测试集上使用真实说话人档案的结果,以显示说话人档案准确性的影响。</p>
<p><img alt="baseline_result" src="_images/baseline_result.png" /></p>
</section>
</section>
@@ -171,7 +192,7 @@
        <li class="right" >
          <a href="%E8%B5%9B%E9%81%93%E8%AE%BE%E7%BD%AE%E4%B8%8E%E8%AF%84%E4%BC%B0.html" title="赛道设置与评估"
             >上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">基线</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/Êý¾Ý¼¯.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>数据集 &#8212; m2met2  æ–‡æ¡£</title>
    <title>数据集 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -45,7 +45,7 @@
        <li class="right" >
          <a href="%E7%AE%80%E4%BB%8B.html" title="简介"
             accesskey="P">上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">数据集</a></li> 
      </ul>
    </div>
@@ -56,7 +56,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -180,7 +180,7 @@
        <li class="right" >
          <a href="%E7%AE%80%E4%BB%8B.html" title="简介"
             >上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">数据集</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/¼ò½é.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>简介 &#8212; m2met2  æ–‡æ¡£</title>
    <title>简介 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -46,7 +46,7 @@
        <li class="right" >
          <a href="index.html" title="ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0"
             accesskey="P">上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">简介</a></li> 
      </ul>
    </div>
@@ -57,7 +57,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -130,30 +130,30 @@
<h2>竞赛介绍<a class="headerlink" href="#id2" title="此标题的永久链接">¶</a></h2>
<p>语音识别(Automatic Speech Recognition)、说话人日志(Speaker Diarization)等语音处理技术的最新发展激发了众多智能语音的广泛应用。然而会议场景由于其复杂的声学条件和不同的讲话风格,包括重叠的讲话、不同数量的发言者、大会议室的远场信号以及环境噪声和混响,仍然属于一项极具挑战性的任务。</p>
<p>为了推动会议场景语音识别的发展,已经有很多相关的挑战赛,如 Rich Transcription evaluation å’Œ CHIME(Computational Hearing in Multisource Environments) æŒ‘战赛。最新的CHIME挑战赛关注于远距离自动语音识别和开发能在各种不同拓扑结构的阵列和应用场景中通用的系统。然而不同语言之间的差异限制了非英语会议转录的进展。MISP(Multimodal Information Based Speech Processing)和M2MeT(Multi-Channel Multi-Party Meeting Transcription)挑战赛为推动普通话会议场景语音识别做出了贡献。MISP挑战赛侧重于用视听多模态的方法解决日常家庭环境中的远距离多麦克风信号处理问题,而M2MeT挑战则侧重于解决离线会议室中会议转录的语音重叠问题。</p>
<p>ASSP2022 M2MeT挑战的侧重点是会议场景,它包括两个赛道:说话人日记和多说话人自动语音识别。前者涉及识别“谁在什么时候说了话”,而后者旨在同时识别来自多个说话人的语音,语音重叠和各种噪声带来了巨大的技术困难。</p>
<p>在上一届M2MET成功举办的基础上,我们将在ASRU2023上继续举办M2MET2.0挑战赛。在上一届M2MET挑战赛中,评估指标是说话人无关的,我们只能得到识别文本,而不能确定相应的说话人。
为了解决这一局限性并将现在的多说话人语音识别系统推向实用化,M2MET2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。通过将语音归属于特定的说话人,这项任务旨在提高多说话人ASR系统在真实世界环境中的准确性和适用性。
<p>IASSP2022 M2MeT挑战的侧重点是会议场景,它包括两个赛道:说话人日记和多说话人自动语音识别。前者涉及识别“谁在什么时候说了话”,而后者旨在同时识别来自多个说话人的语音,语音重叠和各种噪声带来了巨大的技术困难。</p>
<p>在上一届M2MeT成功举办的基础上,我们将在ASRU 2023上继续举办M2MeT2.0挑战赛。在上一届M2MeT挑战赛中,评估指标是说话人无关的,我们只能得到识别文本,而不能确定相应的说话人。
为了解决这一局限性并将现在的多说话人语音识别系统推向实用化,M2MeT2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。通过将语音归属于特定的说话人,这项任务旨在提高多说话人ASR系统在真实世界环境中的准确性和适用性。
我们对数据集、规则、基线系统和评估方法进行了详细介绍,以进一步促进多说话人语音识别领域研究的发展。此外,我们将根据时间表发布一个全新的测试集,包括大约10小时的音频。</p>
</section>
<section id="aoe">
<h2>时间安排(AOE时间)<a class="headerlink" href="#aoe" title="此标题的永久链接">¶</a></h2>
<ul class="simple">
<li><p><span class="math notranslate nohighlight">\( 2023.4.29: \)</span> å¼€æ”¾æ³¨å†Œ</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.5.8: \)</span> åŸºçº¿å‘布</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.5.15: \)</span> æ³¨å†Œæˆªæ­¢</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.6.9: \)</span> æµ‹è¯•集数据发布</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.6.13: \)</span> æœ€ç»ˆç»“果提交截止</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.6.19: \)</span> è¯„估结果和排名发布</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.7.3: \)</span> è®ºæ–‡æäº¤æˆªæ­¢</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.7.10: \)</span> æœ€ç»ˆç‰ˆè®ºæ–‡æäº¤æˆªæ­¢</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.12.12: \)</span> ASRU Workshop &amp; challenge session</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.5.11: \)</span> åŸºçº¿å‘布</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.5.22: \)</span> æ³¨å†Œæˆªæ­¢</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.6.16: \)</span> æµ‹è¯•集数据发布,排行榜开放</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.6.20: \)</span> æœ€ç»ˆç»“果提交截止,排行榜关闭</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.6.26: \)</span> è¯„估结果和排名发布</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.7.3: \)</span> è®ºæ–‡æäº¤æˆªæ­¢ï¼ˆé€šè¿‡ASRU2023官方投稿,选择竞赛Session)</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.7.10: \)</span> æœ€ç»ˆç‰ˆè®ºæ–‡æäº¤æˆªæ­¢ï¼ˆé€šè¿‡ASRU2023官方投稿,选择竞赛Session)</p></li>
<li><p><span class="math notranslate nohighlight">\( 2023.12.12: \)</span> ASRU Workshop &amp; Challenge Session</p></li>
</ul>
</section>
<section id="id3">
<h2>竞赛报名<a class="headerlink" href="#id3" title="此标题的永久链接">¶</a></h2>
<p>来自学术界和工业界的有意向参赛者均应在2023年5月15日及之前填写下方的谷歌表单:</p>
<p><a class="reference external" href="https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link">M2MET2.0报名</a></p>
<p>主办方将在3个工作日内通过电子邮件通知符合条件的参赛团队,团队必须遵守将在挑战网站上发布的挑战规则。在排名发布之前,每个参赛者必须提交一份系统描述文件,详细说明使用的方法和模型。主办方将选择前三名纳入ASRU2023论文集。</p>
<p>来自学术界和工业界的有意向参赛者均应在2023å¹´5月22日及之前填写下方的谷歌表单。同时欢迎广大参赛者加入<a class="reference external" href="https://alibaba-damo-academy.github.io/FunASR/m2met2_cn/%E8%81%94%E7%B3%BB%E6%96%B9%E5%BC%8F.html">官方交流微信群</a>交流并及时获取竞赛最新消息:</p>
<p><a class="reference external" href="https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link">M2MeT2.0报名</a></p>
<p>主办方将在3个工作日内通过电子邮件通知符合条件的参赛团队,团队必须遵守将在挑战网站上发布的挑战规则。在排名发布之前,每个参赛者必须提交一份系统描述文件,详细说明使用的方法和模型。主办方将排名前列的队伍纳入ASRU2023论文集。</p>
</section>
</section>
@@ -187,7 +187,7 @@
        <li class="right" >
          <a href="index.html" title="ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0"
             >上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">简介</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/×éί»á.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>组委会 &#8212; m2met2  æ–‡æ¡£</title>
    <title>组委会 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -45,7 +45,7 @@
        <li class="right" >
          <a href="%E8%A7%84%E5%88%99.html" title="竞赛规则"
             accesskey="P">上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">组委会</a></li> 
      </ul>
    </div>
@@ -56,7 +56,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -188,7 +188,7 @@
        <li class="right" >
          <a href="%E8%A7%84%E5%88%99.html" title="竞赛规则"
             >上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">组委会</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/ÁªÏµ·½Ê½.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>联系方式 &#8212; m2met2  æ–‡æ¡£</title>
    <title>联系方式 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -41,7 +41,7 @@
        <li class="right" >
          <a href="%E7%BB%84%E5%A7%94%E4%BC%9A.html" title="组委会"
             accesskey="P">上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">联系方式</a></li> 
      </ul>
    </div>
@@ -52,7 +52,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -121,17 +121,20 @@
            
  <section id="id1">
<h1>联系方式<a class="headerlink" href="#id1" title="此标题的永久链接">¶</a></h1>
<p>如果对M2MET2.0竞赛有任何疑问,欢迎通过以下方式联系我们:</p>
<p>如果对M2MeT2.0竞赛有任何疑问,欢迎通过以下方式联系我们:</p>
<ul class="simple">
<li><p>邮件: <a class="reference external" href="mailto:m2met&#46;alimeeting&#37;&#52;&#48;gmail&#46;com">m2met<span>&#46;</span>alimeeting<span>&#64;</span>gmail<span>&#46;</span>com</a></p></li>
</ul>
<table class="docutils align-default">
<thead>
<tr class="row-odd"><th class="head text-center"><p>M2MET2.0竞赛官方微信群</p></th>
<tr class="row-odd"><th class="head text-center"><p>M2MeT2.0竞赛官方微信群</p></th>
</tr>
</thead>
<tbody>
<tr class="row-even"><td class="text-center"><p><a class="reference internal" href="_images/qrcode.png"><img alt="_images/qrcode.png" src="_images/qrcode.png" style="width: 300px;" /></a></p></td>
</tr>
</tbody>
</table>
<!-- | <img src="images/wechat.png" width="300"/> | -->
</section>
@@ -158,7 +161,7 @@
        <li class="right" >
          <a href="%E7%BB%84%E5%A7%94%E4%BC%9A.html" title="组委会"
             >上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">联系方式</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/¹æÔò.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>竞赛规则 &#8212; m2met2  æ–‡æ¡£</title>
    <title>竞赛规则 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -45,7 +45,7 @@
        <li class="right" >
          <a href="%E5%9F%BA%E7%BA%BF.html" title="基线"
             accesskey="P">上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">竞赛规则</a></li> 
      </ul>
    </div>
@@ -56,7 +56,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -166,7 +166,7 @@
        <li class="right" >
          <a href="%E5%9F%BA%E7%BA%BF.html" title="基线"
             >上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">竞赛规则</a></li> 
      </ul>
    </div>
docs/m2met2_cn/_build/html/ÈüµÀÉèÖÃÓëÆÀ¹À.html
@@ -15,7 +15,7 @@
  <link rel="stylesheet" type="text/css" href="_static/css/bootstrap-theme.min.css" />
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  
    <title>赛道设置与评估 &#8212; m2met2  æ–‡æ¡£</title>
    <title>赛道设置与评估 &#8212; å¤šé€šé“多方会议转录挑战2.0</title>
    <link rel="stylesheet" type="text/css" href="_static/pygments.css" />
    <link rel="stylesheet" type="text/css" href="_static/guzzle.css" />
    <script data-url_root="./" id="documentation_options" src="_static/documentation_options.js"></script>
@@ -46,7 +46,7 @@
        <li class="right" >
          <a href="%E6%95%B0%E6%8D%AE%E9%9B%86.html" title="数据集"
             accesskey="P">上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">赛道设置与评估</a></li> 
      </ul>
    </div>
@@ -57,7 +57,7 @@
      </div>
  <div id="left-column">
    <div class="sphinxsidebar"><a href="
    index.html" class="text-logo">m2met2  æ–‡æ¡£</a>
    index.html" class="text-logo">多通道多方会议转录挑战2.0</a>
<div class="sidebar-block">
  <div class="sidebar-wrapper">
    <div id="main-search">
@@ -128,7 +128,7 @@
<h1>赛道设置与评估<a class="headerlink" href="#id1" title="此标题的永久链接">¶</a></h1>
<section id="id2">
<h2>说话人相关的语音识别<a class="headerlink" href="#id2" title="此标题的永久链接">¶</a></h2>
<p>说话人相关的ASR任务需要从重叠的语音中识别每个说话人的语音,并为识别内容分配一个说话人标签。图2展示了说话人相关语音识别任务和多说话人语音识别任务的主要区别。在本次竞赛中AliMeeting、Aishell4和Cn-Celeb数据集可作为受限数据源。在M2MeT挑战赛中使用的AliMeeting数据集包含训练、评估和测试集,在M2MET2.0可以在训练和评估中使用。此外,一个包含约10小时会议数据的新的Test-2023集将根据赛程安排发布并用于挑战赛的评分和排名。值得注意的是,对于Test-2023测试集,主办方将不再提供耳机的近场音频、转录以及真实时间戳。而是提供可以通过一个简单的VAD模型得到的包含多个说话人的片段。</p>
<p>说话人相关的ASR任务需要从重叠的语音中识别每个说话人的语音,并为识别内容分配一个说话人标签。图2展示了说话人相关语音识别任务和多说话人语音识别任务的主要区别。在本次竞赛中AliMeeting、Aishell4和Cn-Celeb数据集可作为受限数据源。在M2MeT挑战赛中使用的AliMeeting数据集包含训练、评估和测试集,在M2MeT2.0可以在训练和评估中使用。此外,一个包含约10小时会议数据的新的Test-2023集将根据赛程安排发布并用于挑战赛的评分和排名。值得注意的是,对于Test-2023测试集,主办方将不再提供耳机的近场音频、转录以及真实时间戳。而是提供可以通过一个简单的VAD模型得到的包含多个说话人的片段。</p>
<p><img alt="task difference" src="_images/task_diff.png" /></p>
</section>
<section id="id3">
@@ -181,7 +181,7 @@
        <li class="right" >
          <a href="%E6%95%B0%E6%8D%AE%E9%9B%86.html" title="数据集"
             >上一页</a> |</li>
        <li class="nav-item nav-item-0"><a href="index.html">m2met2  æ–‡æ¡£</a> &#187;</li>
        <li class="nav-item nav-item-0"><a href="index.html">多通道多方会议转录挑战2.0</a> &#187;</li>
        <li class="nav-item nav-item-this"><a href="">赛道设置与评估</a></li> 
      </ul>
    </div>
docs/m2met2_cn/conf.py
@@ -7,7 +7,7 @@
# -- Project information -----------------------------------------------------
# https://www.sphinx-doc.org/en/master/usage/configuration.html#project-information
project = 'm2met2'
project = '多通道多方会议转录挑战2.0'
copyright = '2023, Speech Lab, Alibaba Group; ASLP Group, Northwestern Polytechnical University'
author = 'Speech Lab, Alibaba Group; Audio, Speech and Language Processing Group, Northwestern Polytechnical University'
docs/m2met2_cn/images/baseline_result.png

docs/m2met2_cn/images/qrcode.png
docs/m2met2_cn/index.rst
@@ -5,8 +5,8 @@
ASRU 2023 å¤šé€šé“多方会议转录挑战 2.0
==================================================================================
在上一届M2MET竞赛成功举办的基础上,我们将在ASRU2023上继续举办M2MET2.0挑战赛。
为了将现在的多说话人语音识别系统推向实用化,M2MET2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。
在上一届M2MeT竞赛成功举办的基础上,我们将在ASRU2023上继续举办M2MeT2.0挑战赛。
为了将现在的多说话人语音识别系统推向实用化,M2MeT2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。
我们对数据集、规则、基线系统和评估方法进行了详细介绍,以进一步促进多说话人语音识别领域研究的发展。
.. toctree::
docs/m2met2_cn/»ùÏß.md
@@ -5,8 +5,29 @@
![model archietecture](images/sa_asr_arch.png)
## å¿«é€Ÿå¼€å§‹
#TODO: fill with the README.md of the baseline
首先需要安装FunASR和ModelScope. ([installation](https://alibaba-damo-academy.github.io/FunASR/en/installation.html))
基线系统有训练和测试两个脚本,`run.sh`是用于训练基线系统并在M2MeT的验证与测试集上评估的,而`run_m2met_2023_infer.sh`用于此次竞赛预备开放的全新测试集上测试同时生成符合竞赛最终提交格式的文件。
在运行 `run.sh`前,需要自行下载并解压[AliMeeting](http://www.openslr.org/119/)数据集并放置于`./dataset`目录下:
```shell
dataset
|—— Eval_Ali_far
|—— Eval_Ali_near
|—— Test_Ali_far
|—— Test_Ali_near
|—— Train_Ali_far
|—— Train_Ali_near
```
在运行`run_m2met_2023_infer.sh`前, éœ€è¦å°†æµ‹è¯•集`Test_2023_Ali_far`(仅包含音频,将于6.16发布)放置于`./dataset`目录下。然后将主办方提供的`wav.scp`,`wav_raw.scp`,`segments`,`utt2spk`和`spk2utt`放置于`./data/Test_2023_Ali_far`目录下。
```shell
data/Test_2023_Ali_far
|—— wav.scp
|—— wav_raw.scp
|—— segments
|—— utt2spk
|—— spk2utt
```
更多基线系统详情见[此处](https://github.com/alibaba-damo-academy/FunASR/blob/main/egs/alimeeting/sa-asr/README.md)
## åŸºçº¿ç»“æžœ
基线系统的结果如表3所示。在训练期间,说话人档案采用了真实说话人嵌入。然而由于在评估过程中缺乏真实说话人标签,因此使用了由额外的谱聚类提供的说话人特征。同时我们还提供了在评估和测试集上使用真实说话人档案的结果,以显示说话人档案准确性的影响。
![baseline result](images/baseline_result.png)
![baseline_result](images/baseline_result.png)
docs/m2met2_cn/¼ò½é.md
@@ -1,32 +1,33 @@
# ç®€ä»‹
## ç«žèµ›ä»‹ç»
语音识别(Automatic Speech Recognition)、说话人日志(Speaker Diarization)等语音处理技术的最新发展激发了众多智能语音的广泛应用。然而会议场景由于其复杂的声学条件和不同的讲话风格,包括重叠的讲话、不同数量的发言者、大会议室的远场信号以及环境噪声和混响,仍然属于一项极具挑战性的任务。
为了推动会议场景语音识别的发展,已经有很多相关的挑战赛,如 Rich Transcription evaluation å’Œ CHIME(Computational Hearing in Multisource Environments) æŒ‘战赛。最新的CHIME挑战赛关注于远距离自动语音识别和开发能在各种不同拓扑结构的阵列和应用场景中通用的系统。然而不同语言之间的差异限制了非英语会议转录的进展。MISP(Multimodal Information Based Speech Processing)和M2MeT(Multi-Channel Multi-Party Meeting Transcription)挑战赛为推动普通话会议场景语音识别做出了贡献。MISP挑战赛侧重于用视听多模态的方法解决日常家庭环境中的远距离多麦克风信号处理问题,而M2MeT挑战则侧重于解决离线会议室中会议转录的语音重叠问题。
ASSP2022 M2MeT挑战的侧重点是会议场景,它包括两个赛道:说话人日记和多说话人自动语音识别。前者涉及识别“谁在什么时候说了话”,而后者旨在同时识别来自多个说话人的语音,语音重叠和各种噪声带来了巨大的技术困难。
IASSP2022 M2MeT挑战的侧重点是会议场景,它包括两个赛道:说话人日记和多说话人自动语音识别。前者涉及识别“谁在什么时候说了话”,而后者旨在同时识别来自多个说话人的语音,语音重叠和各种噪声带来了巨大的技术困难。
在上一届M2MET成功举办的基础上,我们将在ASRU2023上继续举办M2MET2.0挑战赛。在上一届M2MET挑战赛中,评估指标是说话人无关的,我们只能得到识别文本,而不能确定相应的说话人。
为了解决这一局限性并将现在的多说话人语音识别系统推向实用化,M2MET2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。通过将语音归属于特定的说话人,这项任务旨在提高多说话人ASR系统在真实世界环境中的准确性和适用性。
在上一届M2MeT成功举办的基础上,我们将在ASRU 2023上继续举办M2MeT2.0挑战赛。在上一届M2MeT挑战赛中,评估指标是说话人无关的,我们只能得到识别文本,而不能确定相应的说话人。
为了解决这一局限性并将现在的多说话人语音识别系统推向实用化,M2MeT2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。通过将语音归属于特定的说话人,这项任务旨在提高多说话人ASR系统在真实世界环境中的准确性和适用性。
我们对数据集、规则、基线系统和评估方法进行了详细介绍,以进一步促进多说话人语音识别领域研究的发展。此外,我们将根据时间表发布一个全新的测试集,包括大约10小时的音频。
## æ—¶é—´å®‰æŽ’(AOE时间)
- $ 2023.4.29: $ å¼€æ”¾æ³¨å†Œ
- $ 2023.5.8: $ åŸºçº¿å‘布
- $ 2023.5.15: $ æ³¨å†Œæˆªæ­¢
- $ 2023.6.9: $ æµ‹è¯•集数据发布
- $ 2023.6.13: $ æœ€ç»ˆç»“果提交截止
- $ 2023.6.19: $ è¯„估结果和排名发布
- $ 2023.7.3: $ è®ºæ–‡æäº¤æˆªæ­¢
- $ 2023.7.10: $ æœ€ç»ˆç‰ˆè®ºæ–‡æäº¤æˆªæ­¢
- $ 2023.12.12: $ ASRU Workshop & challenge session
- $ 2023.5.11: $ åŸºçº¿å‘布
- $ 2023.5.22: $ æ³¨å†Œæˆªæ­¢
- $ 2023.6.16: $ æµ‹è¯•集数据发布,排行榜开放
- $ 2023.6.20: $ æœ€ç»ˆç»“果提交截止,排行榜关闭
- $ 2023.6.26: $ è¯„估结果和排名发布
- $ 2023.7.3: $ è®ºæ–‡æäº¤æˆªæ­¢ï¼ˆé€šè¿‡ASRU2023官方投稿,选择竞赛Session)
- $ 2023.7.10: $ æœ€ç»ˆç‰ˆè®ºæ–‡æäº¤æˆªæ­¢ï¼ˆé€šè¿‡ASRU2023官方投稿,选择竞赛Session)
- $ 2023.12.12: $ ASRU Workshop & Challenge Session
## ç«žèµ›æŠ¥å
来自学术界和工业界的有意向参赛者均应在2023年5月15日及之前填写下方的谷歌表单:
来自学术界和工业界的有意向参赛者均应在2023年5月22日及之前填写下方的谷歌表单。同时欢迎广大参赛者加入[官方交流微信群](https://alibaba-damo-academy.github.io/FunASR/m2met2_cn/%E8%81%94%E7%B3%BB%E6%96%B9%E5%BC%8F.html)交流并及时获取竞赛最新消息:
[M2MET2.0报名](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
[M2MeT2.0报名](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
主办方将在3个工作日内通过电子邮件通知符合条件的参赛团队,团队必须遵守将在挑战网站上发布的挑战规则。在排名发布之前,每个参赛者必须提交一份系统描述文件,详细说明使用的方法和模型。主办方将选择前三名纳入ASRU2023论文集。
主办方将在3个工作日内通过电子邮件通知符合条件的参赛团队,团队必须遵守将在挑战网站上发布的挑战规则。在排名发布之前,每个参赛者必须提交一份系统描述文件,详细说明使用的方法和模型。主办方将排名前列的队伍纳入ASRU2023论文集。
docs/m2met2_cn/ÁªÏµ·½Ê½.md
@@ -1,9 +1,9 @@
# è”系方式
如果对M2MET2.0竞赛有任何疑问,欢迎通过以下方式联系我们:
如果对M2MeT2.0竞赛有任何疑问,欢迎通过以下方式联系我们:
- é‚®ä»¶: [m2met.alimeeting@gmail.com](mailto:m2met.alimeeting@gmail.com)
|              M2MET2.0竞赛官方微信群         |
|              M2MeT2.0竞赛官方微信群         |
|:------------------------------------------:|
<!-- | <img src="images/wechat.png" width="300"/> | -->
| <img src="images/qrcode.png" width="300"/> |
docs/m2met2_cn/ÈüµÀÉèÖÃÓëÆÀ¹À.md
@@ -1,6 +1,6 @@
# èµ›é“设置与评估
## è¯´è¯äººç›¸å…³çš„语音识别
说话人相关的ASR任务需要从重叠的语音中识别每个说话人的语音,并为识别内容分配一个说话人标签。图2展示了说话人相关语音识别任务和多说话人语音识别任务的主要区别。在本次竞赛中AliMeeting、Aishell4和Cn-Celeb数据集可作为受限数据源。在M2MeT挑战赛中使用的AliMeeting数据集包含训练、评估和测试集,在M2MET2.0可以在训练和评估中使用。此外,一个包含约10小时会议数据的新的Test-2023集将根据赛程安排发布并用于挑战赛的评分和排名。值得注意的是,对于Test-2023测试集,主办方将不再提供耳机的近场音频、转录以及真实时间戳。而是提供可以通过一个简单的VAD模型得到的包含多个说话人的片段。
说话人相关的ASR任务需要从重叠的语音中识别每个说话人的语音,并为识别内容分配一个说话人标签。图2展示了说话人相关语音识别任务和多说话人语音识别任务的主要区别。在本次竞赛中AliMeeting、Aishell4和Cn-Celeb数据集可作为受限数据源。在M2MeT挑战赛中使用的AliMeeting数据集包含训练、评估和测试集,在M2MeT2.0可以在训练和评估中使用。此外,一个包含约10小时会议数据的新的Test-2023集将根据赛程安排发布并用于挑战赛的评分和排名。值得注意的是,对于Test-2023测试集,主办方将不再提供耳机的近场音频、转录以及真实时间戳。而是提供可以通过一个简单的VAD模型得到的包含多个说话人的片段。
![task difference](images/task_diff.png)
egs/alimeeting/sa-asr/README.md
@@ -19,7 +19,7 @@
stage 7 - 9: Language model training (Optional).
stage 10 - 11: ASR training (SA-ASR requires loading the pre-trained ASR model).
stage 12: SA-ASR training.
stage 13 - 18: Inference and evaluation.
stage 13 - 16: Inference and evaluation.
```
Before running `run_m2met_2023_infer.sh`, you need to place the new test set `Test_2023_Ali_far` (to be released after the challenge starts) in the `./dataset` directory, which contains only raw audios. Then put the given `wav.scp`, `wav_raw.scp`, `segments`, `utt2spk` and `spk2utt` in the `./data/Test_2023_Ali_far` directory.  
```shell
@@ -37,6 +37,10 @@
stage 3: Inference.
stage 4: Generation of SA-ASR results required for final submission.
```
The baseline model is available on [ModelScope](https://www.modelscope.cn/models/damo/speech_saasr_asr-zh-cn-16k-alimeeting/summary).
After generate stats of AliMeeting corpus(stage 10 in `run.sh`), you can set the `infer_with_pretrained_model=true` in `run.sh` to infer with our official baseline model released on ModelScope without training.
# Format of Final Submission
Finally, you need to submit a file called `text_spk_merge` with the following format:
```shell
egs/alimeeting/sa-asr/asr_local.sh
@@ -107,8 +107,8 @@
                                      # inference_asr_model=valid.acc.best.pth
                                      # inference_asr_model=valid.loss.ave.pth
inference_sa_asr_model=valid.acc_spk.ave.pb
download_model= # Download a model from Model Zoo and use it for decoding.
infer_with_pretrained_model=false   # Use pretrained model for decoding
download_sa_asr_model=          # Download the SA-ASR model from ModelScope and use it for decoding.
# [Task dependent] Set the datadir name created by local/data.sh
train_set=       # Name of training set.
valid_set=       # Name of validation set used for monitoring/tuning network training.
@@ -203,7 +203,8 @@
                          # Note that it will overwrite args in inference config.
    --inference_lm        # Language modle path for decoding (default="${inference_lm}").
    --inference_asr_model # ASR model path for decoding (default="${inference_asr_model}").
    --download_model      # Download a model from Model Zoo and use it for decoding (default="${download_model}").
    --infer_with_pretrained_model      # Use pretrained model for decoding (default="${infer_with_pretrained_model}").
    --download_sa_asr_model=          # Download the SA-ASR model from ModelScope and use it for decoding(default="${download_sa_asr_model}").
    # [Task dependent] Set the datadir name created by local/data.sh
    --train_set     # Name of training set (required).
@@ -304,6 +305,9 @@
    lm_token_type="${token_type}"
fi
if ${infer_with_pretrained_model}; then
    skip_train=true
fi
# Set tag for naming of model directory
if [ -z "${asr_tag}" ]; then
@@ -1220,119 +1224,20 @@
    log "Skip the training stages"
fi
if ${infer_with_pretrained_model}; then
    log "Use ${download_sa_asr_model} for decoding and evaluation"
    sa_asr_exp="${expdir}/${download_sa_asr_model}"
    mkdir -p "${sa_asr_exp}"
    python local/download_pretrained_model_from_modelscope.py $download_sa_asr_model ${expdir}
    inference_sa_asr_model="model.pb"
    inference_config=${sa_asr_exp}/decoding.yaml
fi
if ! "${skip_eval}"; then
    if [ ${stage} -le 13 ] && [ ${stop_stage} -ge 13 ]; then
        log "Stage 13: Decoding multi-talker ASR: training_dir=${asr_exp}"
        if ${gpu_inference}; then
            _cmd="${cuda_cmd}"
            inference_nj=$[${ngpu}*${njob_infer}]
            _ngpu=1
        else
            _cmd="${decode_cmd}"
            inference_nj=$inference_nj
            _ngpu=0
        fi
        _opts=
        if [ -n "${inference_config}" ]; then
            _opts+="--config ${inference_config} "
        fi
        if "${use_lm}"; then
            if "${use_word_lm}"; then
                _opts+="--word_lm_train_config ${lm_exp}/config.yaml "
                _opts+="--word_lm_file ${lm_exp}/${inference_lm} "
            else
                _opts+="--lm_train_config ${lm_exp}/config.yaml "
                _opts+="--lm_file ${lm_exp}/${inference_lm} "
            fi
        fi
        # 2. Generate run.sh
        log "Generate '${asr_exp}/${inference_tag}/run.sh'. You can resume the process from stage 13 using this script"
        mkdir -p "${asr_exp}/${inference_tag}"; echo "${run_args} --stage 13 \"\$@\"; exit \$?" > "${asr_exp}/${inference_tag}/run.sh"; chmod +x "${asr_exp}/${inference_tag}/run.sh"
        for dset in ${test_sets}; do
            _data="${data_feats}/${dset}"
            _dir="${asr_exp}/${inference_tag}/${dset}"
            _logdir="${_dir}/logdir"
            mkdir -p "${_logdir}"
            _feats_type="$(<${_data}/feats_type)"
            if [ "${_feats_type}" = raw ]; then
                _scp=wav.scp
                if [[ "${audio_format}" == *ark* ]]; then
                    _type=kaldi_ark
                else
                    _type=sound
                fi
            else
                _scp=feats.scp
                _type=kaldi_ark
            fi
            # 1. Split the key file
            key_file=${_data}/${_scp}
            split_scps=""
            _nj=$(min "${inference_nj}" "$(<${key_file} wc -l)")
            echo $_nj
            for n in $(seq "${_nj}"); do
                split_scps+=" ${_logdir}/keys.${n}.scp"
            done
            # shellcheck disable=SC2086
            utils/split_scp.pl "${key_file}" ${split_scps}
            # 2. Submit decoding jobs
            log "Decoding started... log: '${_logdir}/asr_inference.*.log'"
            ${_cmd} --gpu "${_ngpu}" --max-jobs-run "${_nj}" JOB=1:"${_nj}" "${_logdir}"/asr_inference.JOB.log \
                python -m funasr.bin.asr_inference_launch \
                    --batch_size 1 \
                    --mc True   \
                    --nbest 1   \
                    --ngpu "${_ngpu}" \
                    --njob ${njob_infer} \
                    --gpuid_list ${device} \
                    --data_path_and_name_and_type "${_data}/${_scp},speech,${_type}" \
                    --key_file "${_logdir}"/keys.JOB.scp \
                    --asr_train_config "${asr_exp}"/config.yaml \
                    --asr_model_file "${asr_exp}"/"${inference_asr_model}" \
                    --output_dir "${_logdir}"/output.JOB \
                    --mode asr \
                    ${_opts}
            # 3. Concatenates the output files from each jobs
            for f in token token_int score text; do
                for i in $(seq "${_nj}"); do
                    cat "${_logdir}/output.${i}/1best_recog/${f}"
                done | LC_ALL=C sort -k1 >"${_dir}/${f}"
            done
        done
    fi
    if [ ${stage} -le 14 ] && [ ${stop_stage} -ge 14 ]; then
        log "Stage 14: Scoring multi-talker ASR"
        for dset in ${test_sets}; do
            _data="${data_feats}/${dset}"
            _dir="${asr_exp}/${inference_tag}/${dset}"
            python utils/proce_text.py ${_data}/text ${_data}/text.proc
            python utils/proce_text.py ${_dir}/text ${_dir}/text.proc
            python utils/compute_wer.py ${_data}/text.proc ${_dir}/text.proc ${_dir}/text.cer
            tail -n 3 ${_dir}/text.cer > ${_dir}/text.cer.txt
            cat ${_dir}/text.cer.txt
        done
    fi
    if [ ${stage} -le 15 ] && [ ${stop_stage} -ge 15 ]; then
        log "Stage 15: Decoding SA-ASR (oracle profile): training_dir=${sa_asr_exp}"
        log "Stage 13: Decoding SA-ASR (oracle profile): training_dir=${sa_asr_exp}"
        if ${gpu_inference}; then
            _cmd="${cuda_cmd}"
@@ -1423,8 +1328,8 @@
        done
    fi
    if [ ${stage} -le 16 ] && [ ${stop_stage} -ge 16 ]; then
        log "Stage 16: Scoring SA-ASR (oracle profile)"
    if [ ${stage} -le 14 ] && [ ${stop_stage} -ge 14 ]; then
        log "Stage 14: Scoring SA-ASR (oracle profile)"
        for dset in ${test_sets}; do
            _data="${data_feats}/${dset}"
@@ -1448,8 +1353,8 @@
    fi
    if [ ${stage} -le 17 ] && [ ${stop_stage} -ge 17 ]; then
        log "Stage 17: Decoding SA-ASR (cluster profile): training_dir=${sa_asr_exp}"
    if [ ${stage} -le 15 ] && [ ${stop_stage} -ge 15 ]; then
        log "Stage 15: Decoding SA-ASR (cluster profile): training_dir=${sa_asr_exp}"
        if ${gpu_inference}; then
            _cmd="${cuda_cmd}"
@@ -1539,8 +1444,8 @@
        done
    fi
    if [ ${stage} -le 18 ] && [ ${stop_stage} -ge 18 ]; then
        log "Stage 18: Scoring SA-ASR (cluster profile)"
    if [ ${stage} -le 16 ] && [ ${stop_stage} -ge 16 ]; then
        log "Stage 16: Scoring SA-ASR (cluster profile)"
        for dset in ${test_sets}; do
            _data="${data_feats}/${dset}"
egs/alimeeting/sa-asr/local/download_pretrained_model_from_modelscope.py
New file
@@ -0,0 +1,7 @@
from modelscope.hub.snapshot_download import snapshot_download
import sys
if __name__ == "__main__":
    model_tag = sys.argv[1]
    local_model_dir = sys.argv[2]
    model_dir = snapshot_download(model_tag, cache_dir=local_model_dir, revision='1.0.0')
egs/alimeeting/sa-asr/run.sh
@@ -8,8 +8,8 @@
ngpu=4
device="0,1,2,3"
stage=1
stop_stage=18
stage=12
stop_stage=13
train_set=Train_Ali_far
@@ -18,6 +18,8 @@
asr_config=conf/train_asr_conformer.yaml
sa_asr_config=conf/train_sa_asr_conformer.yaml
inference_config=conf/decode_asr_rnn.yaml
infer_with_pretrained_model=true
download_sa_asr_model="damo/speech_saasr_asr-zh-cn-16k-alimeeting"
lm_config=conf/train_lm_transformer.yaml
use_lm=false
@@ -29,6 +31,8 @@
    --stop_stage ${stop_stage}                         \
    --gpu_inference true    \
    --njob_infer 4    \
    --infer_with_pretrained_model ${infer_with_pretrained_model} \
    --download_sa_asr_model $download_sa_asr_model \
    --asr_exp exp/asr_train_multispeaker_conformer_raw_zh_char_data_alimeeting \
    --sa_asr_exp exp/sa_asr_train_conformer_raw_zh_char_data_alimeeting \
    --asr_stats_dir exp/asr_stats_multispeaker_conformer_raw_zh_char_data_alimeeting \