yhliang
2023-04-27 32d2b3ec153e53176da710ebcc0aba5669effd8a
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
€•ÿ=Œsphinx.addnodes”Œdocument”“”)”}”(Œ    rawsource”Œ”Œchildren”]”Œdocutils.nodes”Œsection”“”)”}”(hhh]”(h    Œtitle”“”)”}”(hŒ Introduction”h]”h    ŒText”“”Œ Introduction”…””}”(Œparent”hŒ    _document”hŒsource”NŒline”NubaŒ
attributes”}”(Œids”]”Œclasses”]”Œnames”]”Œdupnames”]”Œbackrefs”]”uŒtagname”hhKhŒ9/mnt/yhliang/workspace/FunASR/docs/m2met2/Introduction.md”hh hhubh )”}”(hhh]”(h)”}”(hŒCall for participation”h]”hŒCall for participation”…””}”(hh0hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+hhKhh,hh-hhubh    Œ    paragraph”“”)”}”(hXÕAutomatic speech recognition (ASR) and speaker diarization have made significant strides in recent years, resulting in a surge of speech technology applications across various domains. However, meetings present unique challenges to speech technologies due to their complex acoustic conditions and diverse speaking styles, including overlapping speech, variable numbers of speakers, far-field signals in large conference rooms, and environmental noise and reverberation.”h]”hXÕAutomatic speech recognition (ASR) and speaker diarization have made significant strides in recent years, resulting in a surge of speech technology applications across various domains. However, meetings present unique challenges to speech technologies due to their complex acoustic conditions and diverse speaking styles, including overlapping speech, variable numbers of speakers, far-field signals in large conference rooms, and environmental noise and reverberation.”…””}”(hh@hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hh-hhubh?)”}”(hX(Over the years, several challenges have been organized to advance the development of meeting transcription, including the Rich Transcription evaluation and Computational Hearing in Multisource Environments (CHIME) challenges. The latest iteration of the CHIME challenge has a particular focus on distant automatic speech recognition and developing systems that can generalize across various array topologies and application scenarios. However, while progress has been made in English meeting transcription, language differences remain a significant barrier to achieving comparable results in non-English languages, such as Mandarin. The Multimodal Information Based Speech Processing (MISP) and Multi-Channel Multi-Party Meeting Transcription (M2MeT) challenges have been instrumental in advancing Mandarin meeting transcription. The MISP challenge seeks to address the problem of audio-visual distant multi-microphone signal processing in everyday home environments, while the M2MeT challenge focuses on tackling the speech overlap issue in offline meeting rooms.”h]”hX(Over the years, several challenges have been organized to advance the development of meeting transcription, including the Rich Transcription evaluation and Computational Hearing in Multisource Environments (CHIME) challenges. The latest iteration of the CHIME challenge has a particular focus on distant automatic speech recognition and developing systems that can generalize across various array topologies and application scenarios. However, while progress has been made in English meeting transcription, language differences remain a significant barrier to achieving comparable results in non-English languages, such as Mandarin. The Multimodal Information Based Speech Processing (MISP) and Multi-Channel Multi-Party Meeting Transcription (M2MeT) challenges have been instrumental in advancing Mandarin meeting transcription. The MISP challenge seeks to address the problem of audio-visual distant multi-microphone signal processing in everyday home environments, while the M2MeT challenge focuses on tackling the speech overlap issue in offline meeting rooms.”…””}”(hhNhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hh-hhubh?)”}”(hX—The ICASSP2022 M2MeT challenge focuses on meeting scenarios, and it comprises two main tasks: speaker diarization and multi-speaker automatic speech recognition. The former involves identifying who spoke when in the meeting, while the latter aims to transcribe speech from multiple speakers simultaneously, which poses significant technical difficulties due to overlapping speech and acoustic interferences.”h]”hX—The ICASSP2022 M2MeT challenge focuses on meeting scenarios, and it comprises two main tasks: speaker diarization and multi-speaker automatic speech recognition. The former involves identifying who spoke when in the meeting, while the latter aims to transcribe speech from multiple speakers simultaneously, which poses significant technical difficulties due to overlapping speech and acoustic interferences.”…””}”(hh\hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hh-hhubh?)”}”(hXhBuilding on the success of the previous M2MeT challenge, we are excited to propose the M2MeT2.0 challenge as an ASRU2023 challenge special session. In the original M2MeT challenge, the evaluation metric was speaker-independent, which meant that the transcription could be determined, but not the corresponding speaker. To address this limitation and further advance the current multi-talker ASR system towards practicality, the M2MeT2.0 challenge proposes the speaker-attributed ASR task with two sub-tracks: fixed and open training conditions. The speaker-attribute automatic speech recognition (ASR) task aims to tackle the practical and challenging problem of identifying "who spoke what at when". To facilitate reproducible research in this field, we offer a comprehensive overview of the dataset, rules, evaluation metrics, and baseline systems. Furthermore, we will release a carefully curated test set, comprising approximately 10 hours of audio, according to the timeline. The new test set is designed to enable researchers to validate and compare their models' performance and advance the state of the art in this area.”h]”hXnBuilding on the success of the previous M2MeT challenge, we are excited to propose the M2MeT2.0 challenge as an ASRU2023 challenge special session. In the original M2MeT challenge, the evaluation metric was speaker-independent, which meant that the transcription could be determined, but not the corresponding speaker. To address this limitation and further advance the current multi-talker ASR system towards practicality, the M2MeT2.0 challenge proposes the speaker-attributed ASR task with two sub-tracks: fixed and open training conditions. The speaker-attribute automatic speech recognition (ASR) task aims to tackle the practical and challenging problem of identifying â€œwho spoke what at when”. To facilitate reproducible research in this field, we offer a comprehensive overview of the dataset, rules, evaluation metrics, and baseline systems. Furthermore, we will release a carefully curated test set, comprising approximately 10 hours of audio, according to the timeline. The new test set is designed to enable researchers to validate and compare their models’ performance and advance the state of the art in this area.”…””}”(hhjhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h>hK    hh,hh-hhubeh}”(h!]”Œcall-for-participation”ah#]”h%]”Œcall for participation”ah']”h)]”Œslug”Œcall-for-participation”uh+h
hKhh,hh hhubh )”}”(hhh]”(h)”}”(hŒTimeline(AOE Time)”h]”hŒTimeline(AOE Time)”…””}”(hh…hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+hhK hh,hh‚hhubh    Œ bullet_list”“”)”}”(hhh]”(h    Œ    list_item”“”)”}”(hhh]”h?)”}”(hŒ4$ April~29, 2023: $ Challenge and registration open.”h]”(h    Œmath”“”)”}”(hŒ April~29, 2023: ”h]”hŒ April~29, 2023: ”…””}”(hh£hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hK hh,hhhhubhŒ! Challenge and registration open.”…””}”(hhhhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hK hh,hhšhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hK hh,hh•hhubh™)”}”(hhh]”h?)”}”(hŒ"$ May~8, 2023: $ Baseline release.”h]”(h¢)”}”(hŒ May~8, 2023: ”h]”hŒ May~8, 2023: ”…””}”(hhÈhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hK hh,hhÄhhubhŒ Baseline release.”…””}”(hhÄhhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hK hh,hhÁhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hK hh,hh•hhubh™)”}”(hhh]”h?)”}”(hŒ]$ May~15, 2023: $ Registration deadline, the due date for participants to join the Challenge.”h]”(h¢)”}”(hŒ May~15, 2023: ”h]”hŒ May~15, 2023: ”…””}”(hhíhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hKhh,hhéhhubhŒL Registration deadline, the due date for participants to join the Challenge.”…””}”(hhéhhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hhæhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hKhh,hh•hhubh™)”}”(hhh]”h?)”}”(hŒ9$ June~9, 2023: $ Test data release and leaderboard open.”h]”(h¢)”}”(hŒ June~9, 2023: ”h]”hŒ June~9, 2023: ”…””}”(hjhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hKhh,hjhhubhŒ( Test data release and leaderboard open.”…””}”(hjhhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hj hhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hKhh,hh•hhubh™)”}”(hhh]”h?)”}”(hŒ-$ June~13, 2023: $ Final submission deadline.”h]”(h¢)”}”(hŒ June~13, 2023: ”h]”hŒ June~13, 2023: ”…””}”(hj7hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hKhh,hj3hhubhŒ Final submission deadline.”…””}”(hj3hhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hj0hhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hKhh,hh•hhubh™)”}”(hhh]”h?)”}”(hŒ9$ June~19, 2023: $ Evaluation result and ranking release.”h]”(h¢)”}”(hŒ June~19, 2023: ”h]”hŒ June~19, 2023: ”…””}”(hj\hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hKhh,hjXhhubhŒ' Evaluation result and ranking release.”…””}”(hjXhhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hjUhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hKhh,hh•hhubh™)”}”(hhh]”h?)”}”(hŒ0$ July~3, 2023: $ Deadline for paper submission.”h]”(h¢)”}”(hŒ July~3, 2023: ”h]”hŒ July~3, 2023: ”…””}”(hjhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hKhh,hj}hhubhŒ Deadline for paper submission.”…””}”(hj}hhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hjzhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hKhh,hh•hhubh™)”}”(hhh]”h?)”}”(hŒ7$ July~10, 2023: $ Deadline for final paper submission.”h]”(h¢)”}”(hŒ July~10, 2023: ”h]”hŒ July~10, 2023: ”…””}”(hj¦hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hKhh,hj¢hhubhŒ% Deadline for final paper submission.”…””}”(hj¢hhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hjŸhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hKhh,hh•hhubh™)”}”(hhh]”h?)”}”(hŒB$ December~12\ to\ 16, 2023: $ ASRU Workshop and challenge session”h]”(h¢)”}”(hŒ December~12\ to\ 16, 2023: ”h]”hŒ December~12\ to\ 16, 2023: ”…””}”(hjËhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h¡hKhh,hjÇhhubhŒ$ ASRU Workshop and challenge session”…””}”(hjÇhhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hjÄhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h˜hKhh,hh•hhubeh}”(h!]”h#]”h%]”h']”h)]”Œbullet”Œ-”uh+h“hK hh,hh‚hhubeh}”(h!]”Œtimeline-aoe-time”ah#]”h%]”Œtimeline(aoe time)”ah']”h)]”h€Œtimelineaoe-time”uh+h
hK hh,hh hhubh )”}”(hhh]”(h)”}”(hŒ
Guidelines”h]”hŒ
Guidelines”…””}”(hjýhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+hhKhh,hjúhhubh?)”}”(hŒ¯Interested participants, whether from academia or industry, must register for the challenge by completing the Google form below. The deadline for registration is May 15, 2023.”h]”hŒ¯Interested participants, whether from academia or industry, must register for the challenge by completing the Google form below. The deadline for registration is May 15, 2023.”…””}”(hj hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hjúhhubh?)”}”(hŒˆ[M2MET2.0 Registration](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)”h]”h    Œ    reference”“”)”}”(hŒM2MET2.0 Registration”h]”hŒM2MET2.0 Registration”…””}”(hjhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”Œrefuri”Œohttps://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link”uh+jhKhh,hjhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hjúhhubh?)”}”(hXÙWithin three working days, the challenge organizer will send email invitations to eligible teams to participate in the challenge. All qualified teams are required to adhere to the challenge rules, which will be published on the challenge page. Prior to the ranking release time, each participant must submit a system description document detailing their approach and methods. The organizer will select the top ranking submissions to be included in the ASRU2023 Proceedings.”h]”hXÙWithin three working days, the challenge organizer will send email invitations to eligible teams to participate in the challenge. All qualified teams are required to adhere to the challenge rules, which will be published on the challenge page. Prior to the ranking release time, each participant must submit a system description document detailing their approach and methods. The organizer will select the top ranking submissions to be included in the ASRU2023 Proceedings.”…””}”(hj5hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h>hKhh,hjúhhubeh}”(h!]”Œ
guidelines”ah#]”h%]”Œ
guidelines”ah']”h)]”h€Œ
guidelines”uh+h
hKhh,hh hhubeh}”(h!]”Œ introduction”ah#]”h%]”Œ introduction”ah']”h)]”h€Œ introduction”uh+h
hKhh,hhhhubah}”(h!]”h#]”h%]”h']”h)]”Œsource”h,uh+hŒcurrent_source”NŒ current_line”NŒsettings”Œdocutils.frontend”ŒValues”“”)”}”(hNŒ    generator”NŒ    datestamp”NŒ source_link”NŒ
source_url”NŒ toc_backlinks”Œentry”Œfootnote_backlinks”KŒ sectnum_xform”KŒstrip_comments”NŒstrip_elements_with_classes”NŒ strip_classes”NŒ report_level”KŒ
halt_level”KŒexit_status_level”KŒdebug”NŒwarning_stream”NŒ    traceback”ˆŒinput_encoding”Œ    utf-8-sig”Œinput_encoding_error_handler”Œstrict”Œoutput_encoding”Œutf-8”Œoutput_encoding_error_handler”jxŒerror_encoding”ŒUTF-8”Œerror_encoding_error_handler”Œbackslashreplace”Œ language_code”Œen”Œrecord_dependencies”NŒconfig”NŒ    id_prefix”hŒauto_id_prefix”Œid”Œ dump_settings”NŒdump_internals”NŒdump_transforms”NŒdump_pseudo_xml”NŒexpose_internals”NŒstrict_visitor”NŒ_disable_config”NŒ_source”h,Œ _destination”NŒ _config_files”]”Œfile_insertion_enabled”ˆŒ raw_enabled”KŒline_length_limit”M'Œpep_references”NŒ pep_base_url”Œhttps://peps.python.org/”Œpep_file_url_template”Œpep-%04d”Œrfc_references”NŒ rfc_base_url”Œ&https://datatracker.ietf.org/doc/html/”Œ    tab_width”KŒtrim_footnote_reference_space”‰Œsyntax_highlight”Œlong”Œ smart_quotes”ˆŒsmartquotes_locales”]”Œcharacter_level_inline_markup”‰Œdoctitle_xform”‰Œ docinfo_xform”KŒsectsubtitle_xform”‰Œ image_loading”Œlink”Œembed_stylesheet”‰Œcloak_email_addresses”ˆŒsection_self_link”‰Œenv”NubŒreporter”NŒindirect_targets”]”Œsubstitution_defs”}”(Œwordcount-words”h    Œsubstitution_definition”“”)”}”(hŒ542”h]”hŒ542”…””}”hj¶sbah}”(h!]”h#]”h%]”Œwordcount-words”ah']”h)]”uh+j´hh,ubŒwordcount-minutes”jµ)”}”(hŒ3”h]”hŒ3”…””}”hjÆsbah}”(h!]”h#]”h%]”Œwordcount-minutes”ah']”h)]”uh+j´hh,ubuŒsubstitution_names”}”(Œwordcount-words”j³Œwordcount-minutes”jÅuŒrefnames”}”Œrefids”}”Œnameids”}”(jQjNh}hzjöjójHjEuŒ    nametypes”}”(jQ‰h}‰jö‰jH‰uh!}”(jNh hzh-jóh‚jEjúuŒ footnote_refs”}”Œ citation_refs”}”Œ autofootnotes”]”Œautofootnote_refs”]”Œsymbol_footnotes”]”Œsymbol_footnote_refs”]”Œ    footnotes”]”Œ    citations”]”Œautofootnote_start”KŒsymbol_footnote_start”KŒ
id_counter”Œ collections”ŒCounter”“”}”…”R”Œparse_messages”]”Œtransform_messages”]”Œ transformer”NŒ include_log”]”Œ
decoration”NhhŒ
myst_slugs”}”(jTKjNŒ Introduction”‡”hKhzŒCall for participation”‡”jùK jóŒTimeline(AOE Time)”‡”jKKjEŒ
Guidelines”‡”uub.