論文の概要: Peeking inside the Black-Box: Reinforcement Learning for Explainable and Accurate Relation Extraction
- arxiv url: http://arxiv.org/abs/2510.06198v1
- Date: Tue, 07 Oct 2025 17:53:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.407425
- Title: Peeking inside the Black-Box: Reinforcement Learning for Explainable and Accurate Relation Extraction
- Title(参考訳): ブラックボックス内を覗く:説明可能かつ正確な関係抽出のための強化学習
- Authors: Xinyu Guo, Zhengliang Shi, Minglai Yang, Mahdi Rahimi, Mihai Surdeanu,
- Abstract要約: 本稿では,関係抽出のためのフレームワークを提案する。
フレームワークには2つの重要な要素がある: (i) 認知科学に触発された一連のテキスト処理ステップとして関係抽出を定式化する推論機構、 (ii) 強化学習によって駆動される最適化プロセス。
- 参考スコア(独自算出の注目度): 22.675055504330118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a framework for relation extraction (RE) that enhances both accuracy and explainability. The framework has two key components: (i) a reasoning mechanism that formulates relation extraction as a series of text-processing steps inspired by cognitive science, and (ii) an optimization process driven by reinforcement learning (RL) with a novel reward function designed to improve both task accuracy and explanation quality. We call our approach CogRE. Our framework addresses the lack of supervision for language-based explanations in traditional RE by promoting outputs that include important relation keywords. These keywords are drawn from a high-quality dictionary that is automatically constructed using an LLM. We evaluate our approach for the task of one-shot RE using two LLMs and two RE datasets. Our experiments show that CogRE improves explanation quality by addressing two common failure patterns in one-shot RE: poor attention focus and limited one-shot learning capability. For example, our cognitive-structured reasoning with Qwen2.5-15B-Instruct on One-shot NYT29 achieves 24.65% F1, surpassing prior reasoning-based designs. Optimizing this approach with RL using our reward further improves performance by +23.46% (absolute). Finally, human evaluation shows that our best model generates relational keywords closely aligned with gold labels, increasing human explanation quality ratings by 54% (relative).
- Abstract(参考訳): 本稿では,関係抽出のためのフレームワークを提案する。
フレームワークには2つの重要なコンポーネントがある。
一 認知科学に触発された一連のテキスト処理ステップとして関係抽出を定式化する推論機構及び
(2)強化学習(RL)によって駆動されるタスク精度と説明品質を両立させる新しい報酬関数を用いた最適化プロセス。
アプローチをCogREと呼びます。
本フレームワークは,重要な関係キーワードを含むアウトプットの促進により,従来のREにおける言語に基づく説明の監督の欠如に対処する。
これらのキーワードは、LLMを使用して自動的に構築される高品質な辞書から引き出される。
2つのLLMと2つのREデータセットを用いて1ショットREのタスクに対するアプローチを評価する。
実験の結果,CagREは1ショットのREで共通する2つの障害パターンに対処することで,説明品質を向上させることがわかった。
例えば、One-shot NYT29上でのQwen2.5-15B-Instructによる認知構造推論は24.65%のF1を達成し、従来の推論に基づく設計を上回った。
RLによるこのアプローチの最適化は,パフォーマンスを+23.46%向上させる(絶対的)。
最後に、人間の評価から、最良のモデルがゴールドラベルと密接に一致したリレーショナルキーワードを生成し、人間の説明的品質評価を54%(相対的)に向上させることを示す。
関連論文リスト
- Re-ranking Reasoning Context with Tree Search Makes Large Vision-Language Models Stronger [51.01841635655944]
大規模視覚言語モデル(LVLM)の最近の進歩は、視覚質問応答(VQA)タスクのパフォーマンスを著しく改善している。
既存の手法は、推論例による知識の不足や、抽出された知識からの不規則な応答など、依然として課題に直面している。
我々は、Reasoning Context-enriched knowledge baseとTree Search re-level methodを構築し、LVLMを強化したRCTSと呼ばれるマルチモーダルRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-09T14:00:57Z) - Reinforcing Video Reasoning with Focused Thinking [65.85683941058916]
本稿では,集中的思考と深い報酬の粒度で視覚的推論を強化する新しいフレームワークであるTW-GRPOを提案する。
具体的には,高情報密度のトークンを優先するトークン重み付け機構を用いる。
また,シングルチョイスからマルチチョイスQAタスクにシフトすることで,RLトレーニングを再構築する。
論文 参考訳(メタデータ) (2025-05-30T15:42:19Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。