論文の概要: Relation as a Prior: A Novel Paradigm for LLM-based Document-level Relation Extraction
- arxiv url: http://arxiv.org/abs/2511.08143v1
- Date: Wed, 12 Nov 2025 01:42:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.664991
- Title: Relation as a Prior: A Novel Paradigm for LLM-based Document-level Relation Extraction
- Title(参考訳): 先行する関係: LLMに基づく文書レベルの関係抽出のための新しいパラダイム
- Authors: Qiankun Pi, Yepeng Sun, Jicang Lu, Qinlong Fan, Ningbo Huang, Shiyu Wang,
- Abstract要約: LLMに基づく文書レベルの関係抽出(DocRE)のための新しいリレーショナル・アズ・プライマリ(RelPrior)パラダイムを提案する。
RelPriorは、二項関係を抽出の先行として利用し、2つのエンティティが相関しているかどうかを決定し、無関係なエンティティペアをフィルタリングする。
2つのベンチマークの大規模な実験により、RelPriorは既存のLCMベースの手法を超越して最先端のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 4.476410350566294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated their remarkable capabilities in document understanding. However, recent research reveals that LLMs still exhibit performance gaps in Document-level Relation Extraction (DocRE) as requiring fine-grained comprehension. The commonly adopted "extract entities then predict relations" paradigm in LLM-based methods leads to these gaps due to two main reasons: (1) Numerous unrelated entity pairs introduce noise and interfere with the relation prediction for truly related entity pairs. (2) Although LLMs have identified semantic associations between entities, relation labels beyond the predefined set are still treated as prediction errors. To address these challenges, we propose a novel Relation as a Prior (RelPrior) paradigm for LLM-based DocRE. For challenge (1), RelPrior utilizes binary relation as a prior to extract and determine whether two entities are correlated, thereby filtering out irrelevant entity pairs and reducing prediction noise. For challenge (2), RelPrior utilizes predefined relation as a prior to match entities for triples extraction instead of directly predicting relation. Thus, it avoids misjudgment caused by strict predefined relation labeling. Extensive experiments on two benchmarks demonstrate that RelPrior achieves state-of-the-art performance, surpassing existing LLM-based methods.
- Abstract(参考訳): 大規模言語モデル(LLM)は、文書理解においてその顕著な能力を示した。
しかし、最近の研究では、文書レベルの関係抽出(DocRE)において、LLMは微粒な理解を必要とするため、まだパフォーマンスのギャップが残っていることが明らかになっている。
LLM法で一般的に採用されている「抽出エンティティ(extract entity then predictlation)」パラダイムは,(1)非関連エンティティペアがノイズを導入し,真の関連エンティティペアの関係予測に干渉するという2つの主な理由から,これらのギャップを生じさせる。
2) LLMはエンティティ間の意味的関連を識別しているが, 事前定義された集合以外の関係ラベルは予測誤差として扱われる。
これらの課題に対処するため,LLMベースのDocREのためのRelation as a Prior(RelPrior)パラダイムを提案する。
課題(1)では、RelPriorは二項関係を先行して抽出し、2つのエンティティが相関しているかどうかを判定し、無関係なエンティティペアをフィルタリングし、予測ノイズを低減する。
課題 (2) に対して、RelPrior は、事前定義された関係を、関係を直接予測するのではなく、三重項抽出にマッチするエンティティの先行として利用する。
これにより、厳密な事前定義された関係ラベル付けによる誤判断を避けることができる。
2つのベンチマークでの大規模な実験により、RelPriorは既存のLCMベースの手法を超越して最先端のパフォーマンスを達成した。
関連論文リスト
- Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - DEPTH: Hallucination-Free Relation Extraction via Dependency-Aware Sentence Simplification and Two-tiered Hierarchical Refinement [22.164114662885652]
DEPTHは、関係抽出パイプラインに依存性を意識したsEntence simPlificationと2階層階層改良を統合するフレームワークである。
以上の結果から,DEPTHは平均幻覚率を7.0%まで下げる一方で,最先端のベースラインよりも平均F1スコアを17.2%向上させることを示した。
論文 参考訳(メタデータ) (2025-08-20T03:35:24Z) - Preference Leakage: A Contamination Problem in LLM-as-a-judge [69.96778498636071]
審査員としてのLLM(Large Language Models)とLLMに基づくデータ合成は、2つの基本的なLLM駆動型データアノテーション法として登場した。
本研究では, 合成データ生成器とLCMに基づく評価器の関連性に起因するLCM-as-a-judgeの汚染問題である選好リークを明らかにする。
論文 参考訳(メタデータ) (2025-02-03T17:13:03Z) - Aggregation Artifacts in Subjective Tasks Collapse Large Language Models' Posteriors [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理の主要な手法となっている。
本研究は,低アグリゲーション,異質なアノテーションを組み合わせたアグリゲーションの結果が,プロンプトに有害なノイズを生じさせるアノテーションのアーティファクトに繋がるかどうかを考察する。
この結果から,アグリゲーションは主観的タスクのモデル化において不明瞭な要因であり,代わりに個人をモデリングすることを重視することが示唆された。
論文 参考訳(メタデータ) (2024-10-17T17:16:00Z) - LLM with Relation Classifier for Document-Level Relation Extraction [25.587850398830252]
大規模言語モデル(LLM)は、自然言語処理のための新しいパラダイムを生み出した。
本稿では,この性能ギャップの原因を解明し,関係のないエンティティペアによるLCMによる注意の分散を重要要因とする。
論文 参考訳(メタデータ) (2024-08-25T16:43:19Z) - Grasping the Essentials: Tailoring Large Language Models for Zero-Shot Relation Extraction [33.528688487954454]
関係抽出(RE)は、テキスト内のエンティティ間の意味的関係を識別することを目的としている。
アノテーションの要求を減らすことを目的とした、ほとんどショットの学習は、通常、ターゲット関係に対する不完全で偏見のある監視を提供する。
1)大言語モデル(LLM)を利用して,関係定義とラベルなしコーパスから初期シードインスタンスを生成する。
論文 参考訳(メタデータ) (2024-02-17T00:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。