論文の概要: Findings of the Third Shared Task on Multilingual Coreference Resolution
- arxiv url: http://arxiv.org/abs/2410.15949v2
- Date: Sat, 09 Nov 2024 23:29:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:04:26.077142
- Title: Findings of the Third Shared Task on Multilingual Coreference Resolution
- Title(参考訳): 多言語照合における第3の共有課題の発見
- Authors: Michal Novák, Barbora Dohnalová, Miloslav Konopík, Anna Nedoluzhko, Martin Popel, Ondřej Pražák, Jakub Sido, Milan Straka, Zdeněk Žabokrtský, Daniel Zeman,
- Abstract要約: 本稿では,CRAC 2024ワークショップの一環として開催されている多言語コア参照解決に関する共有タスクの第3版の概要について述べる。
以前の2版と同様に、参加者はアイデンティティ・コア推論に基づいて参照を識別しクラスタリングできるシステムを開発するよう求められた。
今年の版では、参加者にゼロアナフォラのための金のスロットを提供しないことによって、タスクの複雑さとリアリズムを増大させることで、現実世界の応用に向けて別の一歩を踏み出した。
- 参考スコア(独自算出の注目度): 1.4191726968556324
- License:
- Abstract: The paper presents an overview of the third edition of the shared task on multilingual coreference resolution, held as part of the CRAC 2024 workshop. Similarly to the previous two editions, the participants were challenged to develop systems capable of identifying mentions and clustering them based on identity coreference. This year's edition took another step towards real-world application by not providing participants with gold slots for zero anaphora, increasing the task's complexity and realism. In addition, the shared task was expanded to include a more diverse set of languages, with a particular focus on historical languages. The training and evaluation data were drawn from version 1.2 of the multilingual collection of harmonized coreference resources CorefUD, encompassing 21 datasets across 15 languages. 6 systems competed in this shared task.
- Abstract(参考訳): 本稿では,CRAC 2024ワークショップの一環として開催されている多言語コア参照解決に関する共有タスクの第3版の概要について述べる。
以前の2版と同様に、参加者はアイデンティティ・コア推論に基づいて参照を識別しクラスタリングできるシステムを開発するよう求められた。
今年の版では、参加者にゼロアナフォラのための金のスロットを提供しないことによって、タスクの複雑さとリアリズムを増大させることで、現実世界の応用に向けて別の一歩を踏み出した。
さらに、共有されたタスクは、より多様な言語のセットを含むように拡張され、特に歴史的言語に焦点を当てた。
トレーニングと評価データは15言語にわたる21のデータセットを含む、調和したコア参照リソースCorefUDの多言語コレクションのバージョン1.2から抽出された。
この共有タスクには6つのシステムが競合した。
関連論文リスト
- Multi-EuP: The Multilingual European Parliament Dataset for Analysis of
Bias in Information Retrieval [62.82448161570428]
このデータセットは、多言語情報検索コンテキストにおける公平性を調べるために設計されている。
真正な多言語コーパスを持ち、24言語すべてに翻訳されたトピックを特徴としている。
文書に関連する豊富な人口統計情報を提供し、人口統計バイアスの研究を容易にする。
論文 参考訳(メタデータ) (2023-11-03T12:29:11Z) - Findings of the 2023 ML-SUPERB Challenge: Pre-Training and Evaluation
over More Languages and Beyond [89.54151859266202]
2023年のMultilingual Speech Universal Performance Benchmark (ML-SUPERB) Challengeは、宣言されたSUPERBフレームワークに拡張される。
この挑戦は12のモデル提出と54の言語コーパスを集め、154の言語を含む包括的なベンチマークをもたらした。
この結果は、単にスケーリングモデルが多言語音声タスクにおける決定的な解決策ではないことを示唆している。
論文 参考訳(メタデータ) (2023-10-09T08:30:01Z) - IXA/Cogcomp at SemEval-2023 Task 2: Context-enriched Multilingual Named
Entity Recognition using Knowledge Bases [53.054598423181844]
3つのステップからなる新しいNERカスケードアプローチを提案する。
我々は、細粒度および新興物質を正確に分類する上で、外部知識基盤の重要性を実証的に示す。
本システムは,低リソース言語設定においても,マルチコネラ2共有タスクにおいて頑健な性能を示す。
論文 参考訳(メタデータ) (2023-04-20T20:30:34Z) - Making a MIRACL: Multilingual Information Retrieval Across a Continuum
of Languages [62.730361829175415]
MIRACLは、WSDM 2023 Cupチャレンジのために構築した多言語データセットです。
18の言語にまたがるアドホック検索に焦点を当てている。
我々の目標は、言語連続体における検索を改善する研究を加速させることです。
論文 参考訳(メタデータ) (2022-10-18T16:47:18Z) - Findings of the Shared Task on Multilingual Coreference Resolution [2.000107169037543]
本稿では,CRAC 2022ワークショップに係わる多言語コア参照解決に関する共通課題の概要について述べる。
共有タスク参加者は、参照を識別し、アイデンティティのコア参照に従ってクラスタ化できるトレーニング可能なシステムを開発することになっていた。
勝者システムはベースラインを12ポイント上回った。
論文 参考訳(メタデータ) (2022-09-16T10:17:06Z) - Handshakes AI Research at CASE 2021 Task 1: Exploring different
approaches for multilingual tasks [0.22940141855172036]
ケース2021共有タスク1の目的は,多言語環境下での社会・政治・危機事象情報の検出と分類である。
提案書にはすべてのサブタスクのエントリが含まれており,得られたスコアが調査結果の妥当性を検証した。
論文 参考訳(メタデータ) (2021-10-29T07:58:49Z) - OLR 2021 Challenge: Datasets, Rules and Baselines [23.878103387338918]
本稿では,データプロファイル,4つのタスク,2つのベースライン,評価原則を紹介する。
言語識別(LID)タスクに加えて、OLR 2021 Challengeに初めて多言語自動音声認識(ASR)タスクが導入された。
論文 参考訳(メタデータ) (2021-07-23T09:57:29Z) - Oriental Language Recognition (OLR) 2020: Summary and Analysis [21.212345251874513]
第5回Oriental Language Recognition (OLR) Challengeは、様々な複雑な環境での言語認識に焦点を当てている。
本稿では,3つの課題,データベースプロファイル,課題の最終結果について述べる。
論文 参考訳(メタデータ) (2021-07-05T12:42:40Z) - Mixtures of Deep Neural Experts for Automated Speech Scoring [11.860560781894458]
本論文は,言語学習者の音声応答からテストプロンプトに対する第二言語能力の自動評価の課題に対処する。
本手法は,(1)音声対話のテキスト書き起こしを自動生成する音声認識システム,(2)テキスト書き起こしを習熟クラスに分類する深層学習者に基づく複数分類システム,の2つの異なるモジュールに依存している。
論文 参考訳(メタデータ) (2021-06-23T15:44:50Z) - Evaluating Multilingual Text Encoders for Unsupervised Cross-Lingual
Retrieval [51.60862829942932]
本稿では,言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性に着目した体系的実証研究を行う。
文レベルのCLIRでは、最先端のパフォーマンスが達成できることを実証する。
しかし、ピーク性能は、汎用の多言語テキストエンコーダをオフ・ザ・シェルフで使うのではなく、文の理解タスクにさらに特化したバリエーションに依存している。
論文 参考訳(メタデータ) (2021-01-21T00:15:38Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。