yhliang
2023-04-27 32d2b3ec153e53176da710ebcc0aba5669effd8a
docs/m2met2_cn/_build/html/_sources/¼ò½é.md.txt
@@ -4,7 +4,7 @@
为了推动会议场景语音识别的发展,已经有很多相关的挑战赛,如 Rich Transcription evaluation å’Œ CHIME(Computational Hearing in Multisource Environments) æŒ‘战赛。最新的CHIME挑战赛关注于远距离自动语音识别和开发能在各种不同拓扑结构的阵列和应用场景中通用的系统。然而不同语言之间的差异限制了非英语会议转录的进展。MISP(Multimodal Information Based Speech Processing)和M2MeT(Multi-Channel Multi-Party Meeting Transcription)挑战赛为推动普通话会议场景语音识别做出了贡献。MISP挑战赛侧重于用视听多模态的方法解决日常家庭环境中的远距离多麦克风信号处理问题,而M2MeT挑战则侧重于解决离线会议室中会议转录的语音重叠问题。
ASSP2022 M2MeT挑战的侧重点是会议场景,它包括两个赛道:说话人日记和多说话人自动语音识别。前者涉及识别“谁在什么时候说了话”,而后者旨在同时识别来自多个说话人的语音,语音重叠和各种噪声带来了巨大的技术困难。
IASSP2022 M2MeT挑战的侧重点是会议场景,它包括两个赛道:说话人日记和多说话人自动语音识别。前者涉及识别“谁在什么时候说了话”,而后者旨在同时识别来自多个说话人的语音,语音重叠和各种噪声带来了巨大的技术困难。
在上一届M2MET成功举办的基础上,我们将在ASRU2023上继续举办M2MET2.0挑战赛。在上一届M2MET挑战赛中,评估指标是说话人无关的,我们只能得到识别文本,而不能确定相应的说话人。
为了解决这一局限性并将现在的多说话人语音识别系统推向实用化,M2MET2.0挑战赛将在说话人相关的人物上评估,并且同时设立限定数据与不限定数据两个子赛道。通过将语音归属于特定的说话人,这项任务旨在提高多说话人ASR系统在真实世界环境中的准确性和适用性。
@@ -29,4 +29,4 @@
[M2MET2.0报名](https://docs.google.com/forms/d/e/1FAIpQLSf77T9vAl7Ym-u5g8gXu18SBofoWRaFShBo26Ym0-HDxHW9PQ/viewform?usp=sf_link)
主办方将在3个工作日内通过电子邮件通知符合条件的参赛团队,团队必须遵守将在挑战网站上发布的挑战规则。在排名发布之前,每个参赛者必须提交一份系统描述文件,详细说明使用的方法和模型。主办方将选择前三名纳入ASRU2023论文集。
主办方将在3个工作日内通过电子邮件通知符合条件的参赛团队,团队必须遵守将在挑战网站上发布的挑战规则。在排名发布之前,每个参赛者必须提交一份系统描述文件,详细说明使用的方法和模型。主办方将排名前列的队伍纳入ASRU2023论文集。