zhifu gao
2023-04-24 331d57253ae25dd42c8e14930dee30cd8d2affa6
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
€•/`Œsphinx.addnodes”Œdocument”“”)”}”(Œ    rawsource”Œ”Œchildren”]”Œdocutils.nodes”Œsection”“”)”}”(hhh]”(h    Œtitle”“”)”}”(hŒ
Organizers”h]”h    ŒText”“”Œ
Organizers”…””}”(Œparent”hŒ    _document”hŒsource”NŒline”NubaŒ
attributes”}”(Œids”]”Œclasses”]”Œnames”]”Œdupnames”]”Œbackrefs”]”uŒtagname”hhKhŒ;/mnt/yhliang/workspace/FunASR/docs_m2met2_tmp/Organizers.md”hh hhubh    Œ    paragraph”“”)”}”(hŒF***Lei Xie, Professor, Northwestern Polytechnical University, China***”h]”h    Œemphasis”“”)”}”(hŒ@Lei Xie, Professor, Northwestern Polytechnical University, China”h]”(hh…””}”(hh5hhhNhNubh    Œstrong”“”)”}”(hŒ@Lei Xie, Professor, Northwestern Polytechnical University, China”h]”hŒ@Lei Xie, Professor, Northwestern Polytechnical University, China”…””}”(hh>hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h<hKhh,hh5hhubhh…””}”(hh5hhhh,hKubeh}”(h!]”h#]”h%]”h']”h)]”uh+h3hKhh,hh/hhubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hKhh,hh hhubh.)”}”(hŒ2Email: [lxie@nwpu.edu.cn](mailto:lxie@nwpu.edu.cn)”h]”(hŒEmail: ”…””}”(hh[hhhNhNubh    Œ    reference”“”)”}”(hŒlxie@nwpu.edu.cn”h]”hŒlxie@nwpu.edu.cn”…””}”(hhehhhNhNubah}”(h!]”h#]”h%]”h']”h)]”Œrefuri”Œmailto:lxie@nwpu.edu.cn”uh+hchKhh,hh[hhubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hKhh,hh hhubh    Œimage”“”)”}”(hŒlxie”h]”h}”(h!]”h#]”h%]”h']”h)]”Œalt”hŒwidth”Œ20%”Œuri”Œimages/lxie.jpeg”Œ
candidates”}”Œ*”h‹suh+h{hh hhhh,hKubh.)”}”(hXÑLei Xie received the Ph.D. degree in computer science from Northwestern Polytechnical University, Xi'an, China, in 2004. From 2001 to 2002, he was with the Department of Electronics and Information Processing, Vrije Universiteit Brussel (VUB), Brussels, Belgium, as a Visiting Scientist. From 2004 to 2006, he was a Senior Research Associate with the Center for Media Technology, School of Creative Media, City University of Hong Kong, Hong Kong, China. From 2006 to 2007, he was a Postdoctoral Fellow with the Human-Computer Communications Laboratory (HCCL), The Chinese University of Hong Kong, Hong Kong, China. He is currently a Professor with School of Computer Science, Northwestern Polytechnical University, Xian, China and leads the Audio, Speech and Language Processing Group (ASLP@NPU). He has published over 200 papers in referred journals and conferences, such as IEEE/ACM Transactions on Audio, Speech and Language Processing, IEEE Transactions on Multimedia, Interspeech, ICASSP, ASRU, ACL and ACM Multimedia. He has achieved several best paper awards in flagship conferences. His current research interests include general topics in speech and language processing, multimedia, and human-computer interaction. Dr. Xie is currently an associate editor (AE) of IEEE/ACM Trans. on Audio, Speech and language Processing. He has actively served as Chairs in many conferences and technical committees. He serves as an IEEE Speech and Language Processing
Technical Committee Member.”h]”(hX·Lei Xie received the Ph.D. degree in computer science from Northwestern Polytechnical University, Xi’an, China, in 2004. From 2001 to 2002, he was with the Department of Electronics and Information Processing, Vrije Universiteit Brussel (VUB), Brussels, Belgium, as a Visiting Scientist. From 2004 to 2006, he was a Senior Research Associate with the Center for Media Technology, School of Creative Media, City University of Hong Kong, Hong Kong, China. From 2006 to 2007, he was a Postdoctoral Fellow with the Human-Computer Communications Laboratory (HCCL), The Chinese University of Hong Kong, Hong Kong, China. He is currently a Professor with School of Computer Science, Northwestern Polytechnical University, Xian, China and leads the Audio, Speech and Language Processing Group (ASLP@NPU). He has published over 200 papers in referred journals and conferences, such as IEEE/ACM Transactions on Audio, Speech and Language Processing, IEEE Transactions on Multimedia, Interspeech, ICASSP, ASRU, ACL and ACM Multimedia. He has achieved several best paper awards in flagship conferences. His current research interests include general topics in speech and language processing, multimedia, and human-computer interaction. Dr. Xie is currently an associate editor (AE) of IEEE/ACM Trans. on Audio, Speech and language Processing. He has actively served as Chairs in many conferences and technical committees. He serves as an IEEE Speech and Language Processing”…””}”(hhhhhNhNubhŒ
”…””}”(hhhhhNhNubhŒTechnical Committee Member.”…””}”(hhhhhNhNubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hKhh,hh hhubh.)”}”(hŒ[***Kong Aik Lee, Senior Scientist at Institute for Infocomm Research, A\*Star, Singapore***”h]”h4)”}”(hŒTKong Aik Lee, Senior Scientist at Institute for Infocomm Research, A*Star, Singapore”h]”(hh…””}”(hh©hhhNhNubh=)”}”(hŒTKong Aik Lee, Senior Scientist at Institute for Infocomm Research, A*Star, Singapore”h]”hŒTKong Aik Lee, Senior Scientist at Institute for Infocomm Research, A*Star, Singapore”…””}”(hh°hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h<hK hh,hh©hhubhh…””}”(hh©hhhh,hKubeh}”(h!]”h#]”h%]”h']”h)]”uh+h3hK hh,hh¥hhubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK hh,hh hhubh.)”}”(hŒ:Email: [kongaik.lee@ieee.org](mailto:kongaik.lee@ieee.org)”h]”(hŒEmail: ”…””}”(hhÍhhhNhNubhd)”}”(hŒkongaik.lee@ieee.org”h]”hŒkongaik.lee@ieee.org”…””}”(hhÕhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”hsŒmailto:kongaik.lee@ieee.org”uh+hchK hh,hhÍhhubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hK hh,hh hhubh|)”}”(hŒkong”h]”h}”(h!]”h#]”h%]”h']”h)]”Œalt”hìŒwidth”Œ20%”Œuri”Œimages/kong.png”hŒ}”hŽhøsuh+h{hh hhhh,hKubh.)”}”(hXKong Aik Lee started off him career as a researcher, then a team leader and a  strategic planning manager, at the Institute Infocomm Research, A*STAR, Singapore, working on speaker and language recognition research. From 2018 to 2020, he spent two and a half years in NEC Corporation, Japan, focusing very much on voice biometrics and multi-modal biometrics products.  He is proud to work with a great team on voice biometrics featured on NEC Bio-Idiom platform. He returned to Singapore in July 2020, and now leading the speech and audio analytics research at the Institute for Infocomm Research, as a Senior Scientist and PI.  He also serve as an Editor for Elsevier Computer Speech and Language (since 2016), and was an Associate Editor for IEEE/ACM Transactions on Audio, Speech and Language Processing (2017 - 2021), and am an elected member of IEEE Speech and Language Technical Committee (2019 - 2021).”h]”hXKong Aik Lee started off him career as a researcher, then a team leader and a  strategic planning manager, at the Institute Infocomm Research, A*STAR, Singapore, working on speaker and language recognition research. From 2018 to 2020, he spent two and a half years in NEC Corporation, Japan, focusing very much on voice biometrics and multi-modal biometrics products.  He is proud to work with a great team on voice biometrics featured on NEC Bio-Idiom platform. He returned to Singapore in July 2020, and now leading the speech and audio analytics research at the Institute for Infocomm Research, as a Senior Scientist and PI.  He also serve as an Editor for Elsevier Computer Speech and Language (since 2016), and was an Associate Editor for IEEE/ACM Transactions on Audio, Speech and Language Processing (2017 - 2021), and am an elected member of IEEE Speech and Language Technical Committee (2019 - 2021).”…””}”(hhúhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hKhh,hh hhubh.)”}”(hŒ}***Zhijie Yan, Principal Engineer at Alibaba, China***
Email: [zhijie.yzj@alibaba-inc.com](mailto:zhijie.yzj@alibaba-inc.com)”h]”(h4)”}”(hŒ0Zhijie Yan, Principal Engineer at Alibaba, China”h]”(hh…””}”(hj hhhNhNubh=)”}”(hŒ0Zhijie Yan, Principal Engineer at Alibaba, China”h]”hŒ0Zhijie Yan, Principal Engineer at Alibaba, China”…””}”(hjhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h<hKhh,hj hhubhh…””}”(hj hhhh,hKubeh}”(h!]”h#]”h%]”h']”h)]”uh+h3hKhh,hjhhubhŒ
”…””}”(hjhhhNhNubhŒEmail: ”…””}”(hjhhhNhNubhd)”}”(hŒzhijie.yzj@alibaba-inc.com”h]”hŒzhijie.yzj@alibaba-inc.com”…””}”(hj2hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”hsŒ!mailto:zhijie.yzj@alibaba-inc.com”uh+hchKhh,hjhhubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hKhh,hh hhubh|)”}”(hŒzhijie”h]”h}”(h!]”h#]”h%]”h']”h)]”Œalt”jIŒwidth”Œ20%”Œuri”Œimages/zhijie.jpg”hŒ}”hŽjUsuh+h{hh hhhh,hKubh.)”}”(hXFZhijie Yan holds a PhD from the University of Science and Technology of China, and is a senior member of the Institute of Electrical and Electronics Engineers (IEEE). He is also an expert reviewer of top academic conferences and journals in the speech field. His research fields include speech recognition, speech synthesis, voiceprints, and speech interaction. His research results are applied in speech services provided by Alibaba Group and Ant Financial. He was awarded the title of "One of the Top 100 Grassroots Scientists" by the China Association for Science and Technology.”h]”hXJZhijie Yan holds a PhD from the University of Science and Technology of China, and is a senior member of the Institute of Electrical and Electronics Engineers (IEEE). He is also an expert reviewer of top academic conferences and journals in the speech field. His research fields include speech recognition, speech synthesis, voiceprints, and speech interaction. His research results are applied in speech services provided by Alibaba Group and Ant Financial. He was awarded the title of â€œOne of the Top 100 Grassroots Scientists” by the China Association for Science and Technology.”…””}”(hjWhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hKhh,hh hhubh.)”}”(hŒx***Shiliang Zhang, Senior Engineer at Alibaba, China***
Email: [sly.zsl@alibaba-inc.com](mailto:sly.zsl@alibaba-inc.com)”h]”(h4)”}”(hŒ1Shiliang Zhang, Senior Engineer at Alibaba, China”h]”(hh…””}”(hjihhhNhNubh=)”}”(hŒ1Shiliang Zhang, Senior Engineer at Alibaba, China”h]”hŒ1Shiliang Zhang, Senior Engineer at Alibaba, China”…””}”(hjphhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h<hKhh,hjihhubhh…””}”(hjihhhh,hKubeh}”(h!]”h#]”h%]”h']”h)]”uh+h3hKhh,hjehhubhŒ
”…””}”(hjehhhNhNubhŒEmail: ”…””}”(hjehhhNhNubhd)”}”(hŒsly.zsl@alibaba-inc.com”h]”hŒsly.zsl@alibaba-inc.com”…””}”(hjhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”hsŒmailto:sly.zsl@alibaba-inc.com”uh+hchKhh,hjehhubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hKhh,hh hhubh|)”}”(hŒzsl”h]”h}”(h!]”h#]”h%]”h']”h)]”Œalt”j¦Œwidth”Œ20%”Œuri”Œimages/zsl.JPG”hŒ}”hŽj²suh+h{hh hhhh,hKubh.)”}”(hXRShiliang Zhang graduated with a Ph.D. from the University of Science and Technology of China in 2017. His research areas mainly include speech recognition, natural language understanding, and machine learning. Currently, he has published over 40 papers in mainstream academic journals and conferences in the fields of speech and machine learning, and has applied for dozens of patents. After obtaining his doctorate degree, he joined the Alibaba Intelligent Speech team. He is currently leading the direction of speech recognition and fundamental technology at DAMO Academy's speech laboratory.”h]”hXTShiliang Zhang graduated with a Ph.D. from the University of Science and Technology of China in 2017. His research areas mainly include speech recognition, natural language understanding, and machine learning. Currently, he has published over 40 papers in mainstream academic journals and conferences in the fields of speech and machine learning, and has applied for dozens of patents. After obtaining his doctorate degree, he joined the Alibaba Intelligent Speech team. He is currently leading the direction of speech recognition and fundamental technology at DAMO Academy’s speech laboratory.”…””}”(hj´hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK hh,hh hhubh.)”}”(hŒB***Yanmin Qian, Professor, Shanghai Jiao Tong University, China***”h]”h4)”}”(hŒ<Yanmin Qian, Professor, Shanghai Jiao Tong University, China”h]”(hh…””}”(hjÆhhhNhNubh=)”}”(hŒ<Yanmin Qian, Professor, Shanghai Jiao Tong University, China”h]”hŒ<Yanmin Qian, Professor, Shanghai Jiao Tong University, China”…””}”(hjÍhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h<hK$hh,hjÆhhubhh…””}”(hjÆhhhh,hKubeh}”(h!]”h#]”h%]”h']”h)]”uh+h3hK$hh,hjÂhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK$hh,hh hhubh.)”}”(hŒ>Email: [yanminqian@sjtu.edu.cn](mailto:yanminqian@sjtu.edu.cn)”h]”(hŒEmail: ”…””}”(hjêhhhNhNubhd)”}”(hŒyanminqian@sjtu.edu.cn”h]”hŒyanminqian@sjtu.edu.cn”…””}”(hjòhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”hsŒmailto:yanminqian@sjtu.edu.cn”uh+hchK&hh,hjêhhubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hK&hh,hh hhubh|)”}”(hŒqian”h]”h}”(h!]”h#]”h%]”h']”h)]”Œalt”j    Œwidth”Œ20%”Œuri”Œimages/qian.jpeg”hŒ}”hŽjsuh+h{hh hhhh,hK(ubh.)”}”(hX(Yanmin Qian received the B.S. degree from the Department of Electronic and Information Engineering,Huazhong University of Science and Technology, Wuhan, China, in 2007, and the Ph.D. degree from the Department of Electronic Engineering, Tsinghua University, Beijing, China, in 2012. Since 2013, he has been with the Department of Computer Science and Engineering, Shanghai Jiao Tong University (SJTU), Shanghai, China, where he is currently an Associate Professor. From 2015 to 2016, he also worked as an Associate Research in the Speech Group, Cambridge University Engineering Department, Cambridge, U.K. He is a senior member of IEEE and a member of ISCA, and one of the founding members of Kaldi Speech Recognition Toolkit. He has published more than 110 papers on speech and language processing with 4000+ citations, including the top conference: ICASSP, INTERSPEECH and ASRU. His current research interests include the acoustic and language modeling in speech recognition, speaker and language recognition, key word spotting, and multimedia signal processing.”h]”hX(Yanmin Qian received the B.S. degree from the Department of Electronic and Information Engineering,Huazhong University of Science and Technology, Wuhan, China, in 2007, and the Ph.D. degree from the Department of Electronic Engineering, Tsinghua University, Beijing, China, in 2012. Since 2013, he has been with the Department of Computer Science and Engineering, Shanghai Jiao Tong University (SJTU), Shanghai, China, where he is currently an Associate Professor. From 2015 to 2016, he also worked as an Associate Research in the Speech Group, Cambridge University Engineering Department, Cambridge, U.K. He is a senior member of IEEE and a member of ISCA, and one of the founding members of Kaldi Speech Recognition Toolkit. He has published more than 110 papers on speech and language processing with 4000+ citations, including the top conference: ICASSP, INTERSPEECH and ASRU. His current research interests include the acoustic and language modeling in speech recognition, speaker and language recognition, key word spotting, and multimedia signal processing.”…””}”(hjhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK*hh,hh hhubh.)”}”(hŒ4***Zhuo Chen, Applied Scientist in Microsoft, USA***”h]”h4)”}”(hŒ.Zhuo Chen, Applied Scientist in Microsoft, USA”h]”(hh…””}”(hj)hhhNhNubh=)”}”(hŒ.Zhuo Chen, Applied Scientist in Microsoft, USA”h]”hŒ.Zhuo Chen, Applied Scientist in Microsoft, USA”…””}”(hj0hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h<hK.hh,hj)hhubhh…””}”(hj)hhhh,hK(ubeh}”(h!]”h#]”h%]”h']”h)]”uh+h3hK.hh,hj%hhubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK.hh,hh hhubh.)”}”(hŒ6Email: [zhuc@microsoft.com](mailto:zhuc@microsoft.com)”h]”(hŒEmail: ”…””}”(hjMhhhNhNubhd)”}”(hŒzhuc@microsoft.com”h]”hŒzhuc@microsoft.com”…””}”(hjUhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”hsŒmailto:zhuc@microsoft.com”uh+hchK0hh,hjMhhubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hK0hh,hh hhubh|)”}”(hŒchenzhuo”h]”h}”(h!]”h#]”h%]”h']”h)]”Œalt”jlŒwidth”Œ20%”Œuri”Œimages/chenzhuo.jpg”hŒ}”hŽjxsuh+h{hh hhhh,hK2ubh.)”}”(hX Zhuo Chen received the Ph.D. degree from Columbia University, New York, NY, USA, in 2017. He is currently a Principal Applied Data Scientist with Microsoft. He has authored or coauthored more than 80 papers in peer-reviewed journals and conferences with around 6000 citations. He is a reviewer or technical committee member for more than ten journals and conferences. His research interests include automatic conversation recognition, speech separation, diarisation, and speaker information extraction. He actively participated in the academic events and challenges, and won several awards. Meanwhile, he contributed to open-sourced datasets, such as WSJ0-2mix, LibriCSS, and AISHELL-4, that have been main benchmark datasets for multi-speaker processing research. In 2020, he was the Team Leader in 2020 Jelinek workshop, leading more than 30 researchers and students to push the state of the art in conversation transcription.”h]”hX Zhuo Chen received the Ph.D. degree from Columbia University, New York, NY, USA, in 2017. He is currently a Principal Applied Data Scientist with Microsoft. He has authored or coauthored more than 80 papers in peer-reviewed journals and conferences with around 6000 citations. He is a reviewer or technical committee member for more than ten journals and conferences. His research interests include automatic conversation recognition, speech separation, diarisation, and speaker information extraction. He actively participated in the academic events and challenges, and won several awards. Meanwhile, he contributed to open-sourced datasets, such as WSJ0-2mix, LibriCSS, and AISHELL-4, that have been main benchmark datasets for multi-speaker processing research. In 2020, he was the Team Leader in 2020 Jelinek workshop, leading more than 30 researchers and students to push the state of the art in conversation transcription.”…””}”(hjzhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK4hh,hh hhubh.)”}”(hŒ2***Jian Wu, Applied Scientist in Microsoft, USA***”h]”h4)”}”(hŒ,Jian Wu, Applied Scientist in Microsoft, USA”h]”(hh…””}”(hjŒhhhNhNubh=)”}”(hŒ,Jian Wu, Applied Scientist in Microsoft, USA”h]”hŒ,Jian Wu, Applied Scientist in Microsoft, USA”…””}”(hj“hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h<hK6hh,hjŒhhubhh…””}”(hjŒhhhh,hK2ubeh}”(h!]”h#]”h%]”h']”h)]”uh+h3hK6hh,hjˆhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK6hh,hh hhubh.)”}”(hŒ:Email: [wujian@microsoft.com](mailto:wujian@microsoft.com)”h]”(hŒEmail: ”…””}”(hj°hhhNhNubhd)”}”(hŒwujian@microsoft.com”h]”hŒwujian@microsoft.com”…””}”(hj¸hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”hsŒmailto:wujian@microsoft.com”uh+hchK8hh,hj°hhubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hK8hh,hh hhubh|)”}”(hŒwujian”h]”h}”(h!]”h#]”h%]”h']”h)]”Œalt”jÏŒwidth”Œ20%”Œuri”Œimages/wujian.jpg”hŒ}”hŽjÛsuh+h{hh hhhh,hK:ubh.)”}”(hXJian Wu received a master degree from Northwestern Polytechnical University, Xi'an, China, in 2020 and currently he is a Applied Scientist in Microsoft, USA. His research interests cover multi-channel signal processing, robust and multi-talker speech recognition, speech enhancement, dereverberation and separation. He has around 30 conference publications with a total citation over 1200. He participated in several challenges such as CHiME5, DNS 2020 and FFSVC 2020 and contributed to the open-sourced datasets including LibriCSS and AISHELL-4. He is also a reviewer for several journals and conferences such as ICASSP, SLT, TASLP and SPL.”h]”hXƒJian Wu received a master degree from Northwestern Polytechnical University, Xi’an, China, in 2020 and currently he is a Applied Scientist in Microsoft, USA. His research interests cover multi-channel signal processing, robust and multi-talker speech recognition, speech enhancement, dereverberation and separation. He has around 30 conference publications with a total citation over 1200. He participated in several challenges such as CHiME5, DNS 2020 and FFSVC 2020 and contributed to the open-sourced datasets including LibriCSS and AISHELL-4. He is also a reviewer for several journals and conferences such as ICASSP, SLT, TASLP and SPL.”…””}”(hjÝhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK<hh,hh hhubh.)”}”(hŒ,***Hui Bu, CEO, AISHELL foundation, China***”h]”h4)”}”(hŒ&Hui Bu, CEO, AISHELL foundation, China”h]”(hh…””}”(hjïhhhNhNubh=)”}”(hŒ&Hui Bu, CEO, AISHELL foundation, China”h]”hŒ&Hui Bu, CEO, AISHELL foundation, China”…””}”(hjöhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h<hK>hh,hjïhhubhh…””}”(hjïhhhh,hK:ubeh}”(h!]”h#]”h%]”h']”h)]”uh+h3hK>hh,hjëhhubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hK>hh,hh hhubh.)”}”(hŒ<Email: [buhui@aishelldata.com](mailto:buhui@aishelldata.com)”h]”(hŒEmail: ”…””}”(hjhhhNhNubhd)”}”(hŒbuhui@aishelldata.com”h]”hŒbuhui@aishelldata.com”…””}”(hjhhhNhNubah}”(h!]”h#]”h%]”h']”h)]”hsŒmailto:buhui@aishelldata.com”uh+hchK@hh,hjhhubeh}”(h!]”h#]”h%]”h']”h)]”uh+h-hK@hh,hh hhubh|)”}”(hŒbuhui”h]”h}”(h!]”h#]”h%]”h']”h)]”Œalt”j2Œwidth”Œ20%”Œuri”Œimages/buhui.jpeg”hŒ}”hŽj>suh+h{hh hhhh,hKBubh.)”}”(hXRHui Bu received his master degree in the Artificial Intelligence Laboratory of Korea University in 2014. He is the founder and the CEO of AISHELL and AISHELL foundation. He participated in the release of AISHELL 1 \& 2 \& 3 \& 4, DMASH and HI-MIA open source database project and is the co-founder of China Kaldi offline Technology Forum.”h]”hXOHui Bu received his master degree in the Artificial Intelligence Laboratory of Korea University in 2014. He is the founder and the CEO of AISHELL and AISHELL foundation. He participated in the release of AISHELL 1 & 2 & 3 & 4, DMASH and HI-MIA open source database project and is the co-founder of China Kaldi offline Technology Forum.”…””}”(hj@hhhNhNubah}”(h!]”h#]”h%]”h']”h)]”uh+h-hKDhh,hh hhubeh}”(h!]”Œ
organizers”ah#]”h%]”Œ
organizers”ah']”h)]”Œslug”Œ
organizers”uh+h
hKhh,hhhhubah}”(h!]”h#]”h%]”h']”h)]”Œsource”h,uh+hŒcurrent_source”NŒ current_line”NŒsettings”Œdocutils.frontend”ŒValues”“”)”}”(hNŒ    generator”NŒ    datestamp”NŒ source_link”NŒ
source_url”NŒ toc_backlinks”Œentry”Œfootnote_backlinks”KŒ sectnum_xform”KŒstrip_comments”NŒstrip_elements_with_classes”NŒ strip_classes”NŒ report_level”KŒ
halt_level”KŒexit_status_level”KŒdebug”NŒwarning_stream”NŒ    traceback”ˆŒinput_encoding”Œ    utf-8-sig”Œinput_encoding_error_handler”Œstrict”Œoutput_encoding”Œutf-8”Œoutput_encoding_error_handler”j{Œerror_encoding”ŒUTF-8”Œerror_encoding_error_handler”Œbackslashreplace”Œ language_code”Œen”Œrecord_dependencies”NŒconfig”NŒ    id_prefix”hŒauto_id_prefix”Œid”Œ dump_settings”NŒdump_internals”NŒdump_transforms”NŒdump_pseudo_xml”NŒexpose_internals”NŒstrict_visitor”NŒ_disable_config”NŒ_source”h,Œ _destination”NŒ _config_files”]”Œfile_insertion_enabled”ˆŒ raw_enabled”KŒline_length_limit”M'Œpep_references”NŒ pep_base_url”Œhttps://peps.python.org/”Œpep_file_url_template”Œpep-%04d”Œrfc_references”NŒ rfc_base_url”Œ&https://datatracker.ietf.org/doc/html/”Œ    tab_width”KŒtrim_footnote_reference_space”‰Œsyntax_highlight”Œlong”Œ smart_quotes”ˆŒsmartquotes_locales”]”Œcharacter_level_inline_markup”‰Œdoctitle_xform”‰Œ docinfo_xform”KŒsectsubtitle_xform”‰Œ image_loading”Œlink”Œembed_stylesheet”‰Œcloak_email_addresses”ˆŒsection_self_link”‰Œenv”NubŒreporter”NŒindirect_targets”]”Œsubstitution_defs”}”(Œwordcount-words”h    Œsubstitution_definition”“”)”}”(hŒ980”h]”hŒ980”…””}”hj¹sbah}”(h!]”h#]”h%]”Œwordcount-words”ah']”h)]”uh+j·hh,ubŒwordcount-minutes”j¸)”}”(hŒ5”h]”hŒ5”…””}”hjÉsbah}”(h!]”h#]”h%]”Œwordcount-minutes”ah']”h)]”uh+j·hh,ubuŒsubstitution_names”}”(Œwordcount-words”j¶Œwordcount-minutes”jÈuŒrefnames”}”Œrefids”}”Œnameids”}”jSjPsŒ    nametypes”}”jS‰sh!}”jPh sŒ footnote_refs”}”Œ citation_refs”}”Œ autofootnotes”]”Œautofootnote_refs”]”Œsymbol_footnotes”]”Œsymbol_footnote_refs”]”Œ    footnotes”]”Œ    citations”]”Œautofootnote_start”KŒsymbol_footnote_start”KŒ
id_counter”Œ collections”ŒCounter”“”}”…”R”Œparse_messages”]”Œtransform_messages”]”Œ transformer”NŒ include_log”]”Œ
decoration”NhhŒ
myst_slugs”}”jWKjPŒ
Organizers”‡”sub.