論文の概要: Oriental Language Recognition (OLR) 2020: Summary and Analysis
- arxiv url: http://arxiv.org/abs/2107.05365v1
- Date: Mon, 5 Jul 2021 12:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-18 12:29:25.737597
- Title: Oriental Language Recognition (OLR) 2020: Summary and Analysis
- Title(参考訳): 東洋言語認識(olr)2020:概要と分析
- Authors: Jing Li, Binling Wang, Yiming Zhi, Zheng Li, Lin Li, Qingyang Hong,
Dong Wang
- Abstract要約: 第5回Oriental Language Recognition (OLR) Challengeは、様々な複雑な環境での言語認識に焦点を当てている。
本稿では,3つの課題,データベースプロファイル,課題の最終結果について述べる。
- 参考スコア(独自算出の注目度): 21.212345251874513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fifth Oriental Language Recognition (OLR) Challenge focuses on language
recognition in a variety of complex environments to promote its development.
The OLR 2020 Challenge includes three tasks: (1) cross-channel language
identification, (2) dialect identification, and (3) noisy language
identification. We choose Cavg as the principle evaluation metric, and the
Equal Error Rate (EER) as the secondary metric. There were 58 teams
participating in this challenge and one third of the teams submitted valid
results. Compared with the best baseline, the Cavg values of Top 1 system for
the three tasks were relatively reduced by 82%, 62% and 48%, respectively. This
paper describes the three tasks, the database profile, and the final results.
We also outline the novel approaches that improve the performance of language
recognition systems most significantly, such as the utilization of auxiliary
information.
- Abstract(参考訳): 第5回Oriental Language Recognition (OLR) Challengeは、その開発を促進するために、様々な複雑な環境における言語認識に焦点を当てている。
OLR 2020チャレンジには、(1)チャネル言語識別、(2)方言識別、(3)雑音言語識別の3つのタスクが含まれている。
我々は、Cavgを原則評価指標とし、EER(Equal Error Rate)を二次指標とする。
このチャレンジには58チームが参加し、チームの3分の1が有効な結果を提出した。
最良ベースラインと比較して,3つのタスクを対象としたトップ1システムのCavg値は,それぞれ82%,62%,48%と相対的に減少した。
本稿では,3つのタスク,データベースプロファイル,最終結果について述べる。
また,補助情報の利用など,言語認識システムの性能を著しく向上させる新たなアプローチについても概説する。
関連論文リスト
- IXA/Cogcomp at SemEval-2023 Task 2: Context-enriched Multilingual Named
Entity Recognition using Knowledge Bases [53.054598423181844]
3つのステップからなる新しいNERカスケードアプローチを提案する。
我々は、細粒度および新興物質を正確に分類する上で、外部知識基盤の重要性を実証的に示す。
本システムは,低リソース言語設定においても,マルチコネラ2共有タスクにおいて頑健な性能を示す。
論文 参考訳(メタデータ) (2023-04-20T20:30:34Z) - Lila: A Unified Benchmark for Mathematical Reasoning [59.97570380432861]
LILAは、23の多様なタスクと4次元からなる統一的な数学的推論ベンチマークである。
我々は,Pythonプログラムの形式でタスク命令とソリューションを収集することにより,20のデータセットベンチマークを拡張してベンチマークを構築した。
LILAで訓練された汎用数学的推論モデルであるBHASKARAを紹介する。
論文 参考訳(メタデータ) (2022-10-31T17:41:26Z) - Cross-Lingual Speaker Identification Using Distant Supervision [84.51121411280134]
本稿では,文脈推論の欠如や言語間一般化の低さといった問題に対処する話者識別フレームワークを提案する。
その結果,2つの英語話者識別ベンチマークにおいて,従来の最先端手法よりも9%の精度,5%の精度で性能が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-11T20:49:44Z) - Making Large Language Models Better Reasoners with Step-Aware Verifier [49.16750018427259]
DIVERSE(Diverse Verifier on Reasoning Step)は、言語モデルの推論能力をさらに強化する新しいアプローチである。
最新の言語モデルであるcode-davinci 上で DIVERSE を評価し,8つの推論ベンチマークのうち6つで新たな最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-06T03:38:36Z) - EVI: Multilingual Spoken Dialogue Tasks and Dataset for Knowledge-Based
Enrolment, Verification, and Identification [49.77911492230467]
3つの認証タスクとその評価プロトコルを形式化する。
EVIは、英語、ポーランド語、フランス語で5,506の対話が可能な、難解な多言語データセットである。
論文 参考訳(メタデータ) (2022-04-28T13:39:24Z) - Multilingual Speech Recognition using Knowledge Transfer across Learning
Processes [15.927513451432946]
実験結果から,WER全体の3.55%の相対的な減少が得られた。
LEAPとSSLの組み合わせにより、言語IDを使用する場合、WER全体の3.51%が相対的に減少する。
論文 参考訳(メタデータ) (2021-10-15T07:50:27Z) - OLR 2021 Challenge: Datasets, Rules and Baselines [23.878103387338918]
本稿では,データプロファイル,4つのタスク,2つのベースライン,評価原則を紹介する。
言語識別(LID)タスクに加えて、OLR 2021 Challengeに初めて多言語自動音声認識(ASR)タスクが導入された。
論文 参考訳(メタデータ) (2021-07-23T09:57:29Z) - Cross-lingual Extended Named Entity Classification of Wikipedia Articles [0.0]
本稿では,問題の解法について述べるとともに,公式な結果について考察する。
本稿では,多言語モデル事前学習,単言語モデル微調整,多言語間投票を含む3段階のアプローチを提案する。
我々のシステムは30言語中25言語で最高のスコアを達成でき、他の5言語で最高のパフォーマンスシステムに対する精度のギャップは比較的小さい。
論文 参考訳(メタデータ) (2020-10-07T14:06:09Z) - AP20-OLR Challenge: Three Tasks and Their Baselines [29.652143329022817]
本稿では,データプロファイル,3つのタスク,対応するベースライン,評価原則を紹介する。
AP20-OLRチャレンジには、SpeechoceanとNSFC M2ASRプロジェクトが提供する言語、方言、実生活データが含まれる。
論文 参考訳(メタデータ) (2020-06-04T16:29:21Z) - Learning to Learn Morphological Inflection for Resource-Poor Languages [105.11499402984482]
本稿では,メタラーニング問題として資源不足言語に対する形態的インフレクション(補題を表象形にマッピングする)の課題を提案する。
それぞれの言語を個別のタスクとして扱うことで、高速ソース言語からのデータを使ってモデルパラメータの集合を学習する。
3つのファミリーから29のターゲット言語を対象とする2つのモデルアーキテクチャの実験により、提案手法がすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2020-04-28T05:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。