論文の概要: Findings of the Shared Task on Multilingual Coreference Resolution
- arxiv url: http://arxiv.org/abs/2209.07841v1
- Date: Fri, 16 Sep 2022 10:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:33:00.683188
- Title: Findings of the Shared Task on Multilingual Coreference Resolution
- Title(参考訳): 多言語照合における共有課題の発見
- Authors: Zden\v{e}k \v{Z}abokrtsk\'y, Miloslav Konop\'ik, Anna Nedoluzhko,
Michal Nov\'ak, Maciej Ogrodniczuk, Martin Popel, Ond\v{r}ej Pra\v{z}\'ak,
Jakub Sido, Daniel Zeman and Yilun Zhu
- Abstract要約: 本稿では,CRAC 2022ワークショップに係わる多言語コア参照解決に関する共通課題の概要について述べる。
共有タスク参加者は、参照を識別し、アイデンティティのコア参照に従ってクラスタ化できるトレーニング可能なシステムを開発することになっていた。
勝者システムはベースラインを12ポイント上回った。
- 参考スコア(独自算出の注目度): 2.000107169037543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an overview of the shared task on multilingual
coreference resolution associated with the CRAC 2022 workshop. Shared task
participants were supposed to develop trainable systems capable of identifying
mentions and clustering them according to identity coreference. The public
edition of CorefUD 1.0, which contains 13 datasets for 10 languages, was used
as the source of training and evaluation data. The CoNLL score used in previous
coreference-oriented shared tasks was used as the main evaluation metric. There
were 8 coreference prediction systems submitted by 5 participating teams; in
addition, there was a competitive Transformer-based baseline system provided by
the organizers at the beginning of the shared task. The winner system
outperformed the baseline by 12 percentage points (in terms of the CoNLL scores
averaged across all datasets for individual languages).
- Abstract(参考訳): 本稿では,CRAC 2022ワークショップに係わる多言語コア参照解決に関する共通課題の概要について述べる。
共有タスク参加者は、言及を識別し、アイデンティティコリファレンスに従ってクラスタ化することができるトレーニング可能なシステムを開発することになっていた。
CorefUD 1.0は10言語用の13のデータセットを含むパブリックエディションで、トレーニングと評価データのソースとして使用された。
従来のコア参照指向共有タスクにおけるCoNLLスコアを主評価基準として用いた。
5つの参加チームによる8つのコリファレンス予測システムに加えて、共有タスクの開始時にオーガナイザが提供した、競合するトランスフォーマティブベースのベースラインシステムもあった。
勝者のシステムは、ベースラインを12ポイント上回った(個々の言語について、すべてのデータセットで平均されたconllスコア)。
関連論文リスト
- Findings of the Third Shared Task on Multilingual Coreference Resolution [1.4191726968556324]
本稿では,CRAC 2024ワークショップの一環として開催されている多言語コア参照解決に関する共有タスクの第3版の概要について述べる。
以前の2版と同様に、参加者はアイデンティティ・コア推論に基づいて参照を識別しクラスタリングできるシステムを開発するよう求められた。
今年の版では、参加者にゼロアナフォラのための金のスロットを提供しないことによって、タスクの複雑さとリアリズムを増大させることで、現実世界の応用に向けて別の一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-21T12:30:44Z) - Overview of the PromptCBLUE Shared Task in CHIP2023 [26.56584015791646]
本稿では,CHIP-2023会議におけるPromptC BLUE共有タスクの概要について述べる。
一般的な医学自然言語処理において、中国のオープンドメインや医学ドメインの大規模言語モデル(LLM)に優れたテストベッドを提供する。
本稿では,タスク,データセット,評価指標,および両タスクの上位システムについて述べる。
論文 参考訳(メタデータ) (2023-12-29T09:05:00Z) - On Using Distribution-Based Compositionality Assessment to Evaluate
Compositional Generalisation in Machine Translation [10.840893953881652]
実世界の自然言語タスクにおける合成一般化を評価するためのベンチマークを開発することが重要である。
これは、Europarl翻訳コーパスをトレーニングとテストセットに分割し、テストセットが構成的一般化能力を必要とするようにすることで行われる。
これは、自然言語合成性ベンチマークを作成するための、完全に自動化された手順である。
論文 参考訳(メタデータ) (2023-11-14T15:37:19Z) - Personalized Federated Learning with Feature Alignment and Classifier
Collaboration [13.320381377599245]
データの不均一性は、フェデレートラーニングにおける最も難しい問題の1つです。
ディープニューラルネットワークベースのタスクにおけるそのようなアプローチの1つは、共有された特徴表現を採用し、クライアントごとにカスタマイズされた分類子ヘッドを学ぶことである。
本研究では,グローバルなセマンティックな知識を活用して,より優れた表現を学習することで,ローカル・グローバルな特徴アライメントを実現する。
論文 参考訳(メタデータ) (2023-06-20T19:58:58Z) - SEAHORSE: A Multilingual, Multifaceted Dataset for Summarization
Evaluation [52.186343500576214]
本稿では,多言語・多面的要約評価のためのデータセットSEAHORSEを紹介する。
SEAHORSEは、テキスト品質の6次元に沿って人間格付けされた96Kの要約で構成されている。
本稿では,SEAHORSEでトレーニングしたメトリクスが,ドメイン外メタ評価ベンチマークTRUEとmFACEで高い性能を示すことを示す。
論文 参考訳(メタデータ) (2023-05-22T16:25:07Z) - Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task [80.22825549235556]
我々は、UniTEという品質評価共有タスクにおいて、文レベルのMQMベンチマークを提出する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
その結果,我々のモデルは多言語・英語・ロシア語設定では第1位,英語・ドイツ語・中国語設定では第2位に達した。
論文 参考訳(メタデータ) (2022-10-18T08:55:27Z) - On Cross-Lingual Retrieval with Multilingual Text Encoders [51.60862829942932]
言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性について検討する。
教師なしのアドホック文と文書レベルのCLIR実験でそれらの性能をベンチマークする。
我々は、ゼロショット言語とドメイン転送CLIR実験のシリーズにおける英語関連データに基づいて、教師付き方式で微調整された多言語エンコーダの評価を行った。
論文 参考訳(メタデータ) (2021-12-21T08:10:27Z) - DisCoDisCo at the DISRPT2021 Shared Task: A System for Discourse
Segmentation, Classification, and Connective Detection [4.371388370559826]
我々のシステムはDisCoDisCoと呼ばれ、コンテキスト化された単語の埋め込みを手作りの機能で強化する。
関係分類の結果は、新しい2021ベンチマークで強い性能を示している。
複数の事前学習されたトランスフォーマーベース言語モデルの部分評価は、Next Sentence Predictionタスクで事前学習されたモデルが関係分類に最適であることを示している。
論文 参考訳(メタデータ) (2021-09-20T18:11:05Z) - XL-WiC: A Multilingual Benchmark for Evaluating Semantic
Contextualization [98.61159823343036]
単語の意味を正確にモデル化する能力を評価するために,Word-in-Context データセット (WiC) を提案する。
我々は、XL-WiCという大規模なマルチ言語ベンチマークを提案し、12の新しい言語でゴールドスタンダードを特徴付けました。
実験結果から、ターゲット言語にタグ付けされたインスタンスが存在しない場合でも、英語データのみにトレーニングされたモデルは、競争力のあるパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T15:32:00Z) - XGLUE: A New Benchmark Dataset for Cross-lingual Pre-training,
Understanding and Generation [100.09099800591822]
XGLUEは、大規模な言語間の事前トレーニングモデルのトレーニングに使用できる、新しいベンチマークデータセットである。
XGLUEは、自然言語理解と生成シナリオの両方をカバーする、11の多様化されたタスクを提供する。
論文 参考訳(メタデータ) (2020-04-03T07:03:12Z) - Overview of the TREC 2019 Fair Ranking Track [65.15263872493799]
TREC Fair Ranking トラックの目標は、異なるコンテンツプロバイダに対する公正性の観点から、検索システムを評価するベンチマークを開発することであった。
本稿では,タスク定義やデータ記述,アノテーションプロセスなどを含むトラックの概要について述べる。
論文 参考訳(メタデータ) (2020-03-25T21:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。