論文の概要: CorefInst: Leveraging LLMs for Multilingual Coreference Resolution
- arxiv url: http://arxiv.org/abs/2509.17505v1
- Date: Mon, 22 Sep 2025 08:35:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.300166
- Title: CorefInst: Leveraging LLMs for Multilingual Coreference Resolution
- Title(参考訳): CorefInst:マルチリンガル参照解決のためのLLMの活用
- Authors: Tuğba Pamay Arslan, Emircan Erol, Gülşen Eryiğit,
- Abstract要約: Coreference Resolution(CR)は、自然言語理解において重要な課題である。
本研究では,デコーダのみのLLMを利用してオーバートとゼロの言及を扱う,最初の多言語CR手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Coreference Resolution (CR) is a crucial yet challenging task in natural language understanding, often constrained by task-specific architectures and encoder-based language models that demand extensive training and lack adaptability. This study introduces the first multilingual CR methodology which leverages decoder-only LLMs to handle both overt and zero mentions. The article explores how to model the CR task for LLMs via five different instruction sets using a controlled inference method. The approach is evaluated across three LLMs; Llama 3.1, Gemma 2, and Mistral 0.3. The results indicate that LLMs, when instruction-tuned with a suitable instruction set, can surpass state-of-the-art task-specific architectures. Specifically, our best model, a fully fine-tuned Llama 3.1 for multilingual CR, outperforms the leading multilingual CR model (i.e., Corpipe 24 single stage variant) by 2 pp on average across all languages in the CorefUD v1.2 dataset collection.
- Abstract(参考訳): Coreference Resolution (CR) は自然言語理解において重要な課題であり、タスク固有のアーキテクチャや、広範囲なトレーニングと適応性の欠如を必要とするエンコーダベースの言語モデルによって制約されることが多い。
本研究では,デコーダのみのLLMを利用してオーバートとゼロの言及を処理した最初の多言語CR手法を提案する。
本稿では,制御推論手法を用いて,LLMのCRタスクを5つの命令セットでモデル化する方法について検討する。
アプローチは、Llama 3.1、Gemma 2、Mistral 0.3の3つのLLMで評価されている。
その結果, LLMは, 命令セットを適度に調整した場合, 最先端のタスク固有アーキテクチャを超越する可能性が示唆された。
具体的には、マルチリンガルCRのための完全に微調整されたLlama 3.1が、CorefUD v1.2データセットコレクションのすべての言語で平均2ppのリード多言語CRモデル(コーディープ24単一ステージ変種)より優れています。
関連論文リスト
- Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Multi-IF: Benchmarking LLMs on Multi-Turn and Multilingual Instructions Following [51.18383180774354]
Multi-IFは,大規模言語モデルの習熟度を多元的および多言語的指示に従って評価するための新しいベンチマークである。
Multi-IF 上での14の最先端 LLM の評価結果から,既存のベンチマークよりもはるかに難しい課題であることが判明した。
非ラテン文字(ヒンディー語、ロシア語、中国語)を持つ言語は一般的に高いエラー率を示し、モデルの多言語能力の潜在的な制限を示唆している。
論文 参考訳(メタデータ) (2024-10-21T00:59:47Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。