論文の概要: RADAR: Reasoning as Discrimination with Aligned Representations for LLM-based Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2602.21951v1
- Date: Wed, 25 Feb 2026 14:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.863387
- Title: RADAR: Reasoning as Discrimination with Aligned Representations for LLM-based Knowledge Graph Reasoning
- Title(参考訳): RADAR:LLMに基づく知識グラフ推論のためのアライメント表現の識別としての推論
- Authors: Bo Xue, Yuan Jin, Luoyi Fu, Jiaxin Ding, Xinbing Wang,
- Abstract要約: 我々は,KGRを生成パターンマッチングから識別的関係推論へ再構成するRADARを提案する。
我々はKGRを差別的な実体選択とみなし、強化学習はトークンライクな模倣を超えた相対的な実体分離性を強制する。
- 参考スコア(独自算出の注目度): 44.42460565747208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph reasoning (KGR) infers missing facts, with recent advances increasingly harnessing the semantic priors and reasoning abilities of Large Language Models (LLMs). However, prevailing generative paradigms are prone to memorizing surface-level co-occurrences rather than learning genuine relational semantics, limiting out-of-distribution generalization. To address this, we propose RADAR, which reformulates KGR from generative pattern matching to discriminative relational reasoning. We recast KGR as discriminative entity selection, where reinforcement learning enforces relative entity separability beyond token-likelihood imitation. Leveraging this separability, inference operates directly in representation space, ensuring consistency with the discriminative optimization and bypassing generation-induced hallucinations. Across four benchmarks, RADAR achieves 5-6% relative gains on link prediction and triple classification over strong LLM baselines, while increasing task-relevant mutual information in intermediate representations by 62.9%, indicating more robust and transferable relational reasoning.
- Abstract(参考訳): 知識グラフ推論(KGR)は、不足した事実を推測し、近年の進歩は、大規模言語モデル(LLM)のセマンティックな先行と推論能力の活用をますます進めている。
しかし、一般的な生成パラダイムは、真のリレーショナルセマンティクスを学ぶよりも、表面レベルの共起を記憶し、分布外一般化を制限する傾向にある。
そこで本研究では,KGRを生成パターンマッチングから識別的関係推論へと再構成するRADARを提案する。
我々はKGRを差別的な実体選択とみなし、強化学習はトークンライクな模倣を超えた相対的な実体分離性を強制する。
この分離性を活用して、推論は直接表現空間で動作し、識別最適化との整合性を確保し、生成誘起幻覚をバイパスする。
4つのベンチマークで、RADARはリンク予測とLLMベースラインの3倍の分類において5-6%の相対的なゲインを達成し、中間表現におけるタスク関連相互情報を62.9%増加させ、より堅牢で転送可能なリレーショナル推論を示している。
関連論文リスト
- Improving Implicit Discourse Relation Recognition with Natural Language Explanations from LLMs [6.696390269864987]
Implicit Discourse Relation Recognition (IDRR) は、深い意味理解を必要とするため、依然として困難な課題である。
大規模言語モデル(LLM)の最近の進歩は、深い言語理解と自然言語説明の生成において強力な推論能力を示している。
本稿では, LLMの推論能力を軽量IDRRモデルに抽出し, 性能と解釈性の両方を改善するための, 簡便かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2026-02-25T10:28:45Z) - CausalFlip: A Benchmark for LLM Causal Judgment Beyond Semantic Matching [50.65932158912512]
そこで我々は,新しい大言語モデルの開発を促進するために,因果推論ベンチマークCausalFlipを提案する。
CaulFlipは、イベントトリプル上に構築された因果判断の質問で構成されており、共同創設者、チェーン、コライダーの関係が異なっている。
回答のみのトレーニング,明示的なチェーン・オブ・ソート監視,そして内在型因果推論アプローチなどを含む,複数の訓練パラダイムによるLCMの評価を行った。
論文 参考訳(メタデータ) (2026-02-23T18:06:15Z) - S$^2$GR: Stepwise Semantic-Guided Reasoning in Latent Space for Generative Recommendation [15.69884243417431]
Generative Recommendation (GR) は、エンドツーエンドジェネレーションのアドバンテージとともに、トランスフォーメーションパラダイムとして登場した。
既存のGR法は主に相互作用シーケンスから直接セマンティックID(SID)を生成することに重点を置いている。
本稿では,潜在空間における段階的意味誘導推論(S$2$GR)を提案する。
論文 参考訳(メタデータ) (2026-01-26T16:40:37Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - DisCO: Reinforcing Large Reasoning Models with Discriminative Constrained Optimization [50.91849555841057]
グループ相対政策最適化は大規模推論モデル(LRM)の強化学習手法である
差別学習の原則を基礎として, LRMの強化のための新たな差別的制約付き最適化フレームワークを導入する。
DisCO は GRPO と DAPO などの改良型を著しく上回り、GRPO の7%、DAPO の6% を平均的に上回っている。
論文 参考訳(メタデータ) (2025-05-18T11:08:32Z) - CoT-RAG: Integrating Chain of Thought and Retrieval-Augmented Generation to Enhance Reasoning in Large Language Models [15.560280546809457]
CoT(Chain-of- Thought)推論は、複雑なタスクにおける大規模言語モデルのLLM(LLM)パフォーマンスを高める。
提案するCoT-RAGは3つの重要な設計を持つ新しい推論フレームワークである。
精度は4.0%から44.3%に向上した。
論文 参考訳(メタデータ) (2025-04-18T07:55:09Z) - Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。