論文の概要: Findings of the Fourth Shared Task on Multilingual Coreference Resolution: Can LLMs Dethrone Traditional Approaches?
- arxiv url: http://arxiv.org/abs/2509.17796v1
- Date: Mon, 22 Sep 2025 13:52:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.425597
- Title: Findings of the Fourth Shared Task on Multilingual Coreference Resolution: Can LLMs Dethrone Traditional Approaches?
- Title(参考訳): 多言語照合解決における第4次共有課題の発見:LLMが従来のアプローチを決定できるか?
- Authors: Michal Novák, Miloslav Konopík, Anna Nedoluzhko, Martin Popel, Ondřej Pražák, Jakub Sido, Milan Straka, Zdeněk Žabokrtský, Daniel Zeman,
- Abstract要約: 本稿は,多言語協調解決に関する共有課題の第4版の概要を述べる。
以前の版と同様に、参加者は参照を識別し、アイデンティティのコア参照に従ってそれらをクラスタ化するシステムを開発するよう求められた。
今年のタスクの重要な革新は、専用の大規模言語モデルトラックの導入だった。
- 参考スコア(独自算出の注目度): 1.5851688800400288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper presents an overview of the fourth edition of the Shared Task on Multilingual Coreference Resolution, organized as part of the CODI-CRAC 2025 workshop. As in the previous editions, participants were challenged to develop systems that identify mentions and cluster them according to identity coreference. A key innovation of this year's task was the introduction of a dedicated Large Language Model (LLM) track, featuring a simplified plaintext format designed to be more suitable for LLMs than the original CoNLL-U representation. The task also expanded its coverage with three new datasets in two additional languages, using version 1.3 of CorefUD - a harmonized multilingual collection of 22 datasets in 17 languages. In total, nine systems participated, including four LLM-based approaches (two fine-tuned and two using few-shot adaptation). While traditional systems still kept the lead, LLMs showed clear potential, suggesting they may soon challenge established approaches in future editions.
- Abstract(参考訳): 本稿は,CODI-CRAC 2025ワークショップの一環として企画された,多言語協調解決のための共有タスクの第4版の概要について述べる。
以前の版と同様に、参加者は参照を識別し、アイデンティティのコア参照に従ってそれらをクラスタ化するシステムを開発するよう求められた。
今年のタスクの重要な革新は、独自のLarge Language Model (LLM)トラックの導入であり、オリジナルのCoNLL-U表現よりもLLMに適合するように設計されたシンプルな平文形式を特徴としている。
このタスクはまた、CorefUDのバージョン1.3を使って、2つの追加言語で3つの新しいデータセットでカバー範囲を広げた。
合計で9つのシステムが参加し、4つのLSMベースのアプローチ(微調整2つ、小ショット適応2つ)が実施された。
従来のシステムは依然としてリードを保っているが、LSMは明確な可能性を示し、将来のエディションで確立されたアプローチにすぐに挑戦する可能性があることを示唆している。
関連論文リスト
- Annif at SemEval-2025 Task 5: Traditional XMTC augmented by LLMs [0.0]
本稿では,SemEval-2025タスク5(LLM)におけるAnnifシステムについて述べる。
大規模言語モデルを用いた主観的索引付けに重点を置いている。
我々のアプローチは、従来の自然言語処理と機械学習技術を組み合わせています。
論文 参考訳(メタデータ) (2025-04-28T11:04:23Z) - Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Findings of the Third Shared Task on Multilingual Coreference Resolution [1.4191726968556324]
本稿では,CRAC 2024ワークショップの一環として開催されている多言語コア参照解決に関する共有タスクの第3版の概要について述べる。
以前の2版と同様に、参加者はアイデンティティ・コア推論に基づいて参照を識別しクラスタリングできるシステムを開発するよう求められた。
今年の版では、参加者にゼロアナフォラのための金のスロットを提供しないことによって、タスクの複雑さとリアリズムを増大させることで、現実世界の応用に向けて別の一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-21T12:30:44Z) - Towards Building Multilingual Language Model for Medicine [54.1382395897071]
6つの主要言語を含む約25.5Bトークンを含む多言語医療コーパスを構築した。
MMedBench と呼ばれる有理性を持つ多言語医療用多言語質問応答ベンチマークを提案する。
我々の最終モデルであるMMed-Llama 3は、8Bパラメータしか持たないが、MMedBenchおよび英語ベンチマークの他のすべてのオープンソースモデルと比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-02-21T17:47:20Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - OLR 2021 Challenge: Datasets, Rules and Baselines [23.878103387338918]
本稿では,データプロファイル,4つのタスク,2つのベースライン,評価原則を紹介する。
言語識別(LID)タスクに加えて、OLR 2021 Challengeに初めて多言語自動音声認識(ASR)タスクが導入された。
論文 参考訳(メタデータ) (2021-07-23T09:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。