論文の概要: Robust Knowledge Editing via Explicit Reasoning Chains for Distractor-Resilient Multi-Hop QA
- arxiv url: http://arxiv.org/abs/2509.01468v1
- Date: Mon, 01 Sep 2025 13:37:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.717213
- Title: Robust Knowledge Editing via Explicit Reasoning Chains for Distractor-Resilient Multi-Hop QA
- Title(参考訳): 分散型マルチホップQAのための明示的推論チェーンによるロバスト知識編集
- Authors: Yuchen Wu, Liang Ding, Li Shen, Dacheng Tao,
- Abstract要約: Reason-KEは、4つの構造化されたステージファクト認識、関連性決定、選択的応用、そして1回のパスでイントラクタをフィルタする最終的な理由付けによって、事前訓練された大きな言語モデルを操る。
最大4つの無関係な事実を持つMQuAKE-CFで訓練されたReason-KEは、QAの精度を90.2%に高め、重い注意を払って6.3%低下し、回答が漏れたときは1%にしかならない。
- 参考スコア(独自算出の注目度): 63.96040994220329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) encode vast amounts of world knowledge but remain static once trained, making the timely integration of emerging facts prohibitively expensive via full retraining. Knowledge-editing techniques have thus emerged to inject or overwrite specific facts into LLMs, yet they either over-rely on superficial cues or incur complex, iterative pipelines that collapse under noisy, multi-hop conditions. We introduce Reason-KE, an end-to-end reasoning-chain-based editing framework that steers a pretrained LLM through four structured stages-fact acknowledgment, relevance determination, selective application, and final reasoning-to filter distractors in a single pass. Trained on MQuAKE-CF with up to four irrelevant facts, Reason-KE elevates Qwen2.5-7B's multi-hop QA accuracy to 90.2% while suffering merely a 6.3% drop under heavy distraction and <1% when answers are leaked. Our quantitative analysis confirms Reason-KE's resilience and efficiency, establishing a new state-of-the-art for reliable LLM knowledge updates.
- Abstract(参考訳): 大規模な言語モデル(LLM)は、膨大な量の世界の知識を符号化するが、訓練が終わった後も静的なままであり、完全なリトレーニングによって、新興事実のタイムリーな統合は極めて高価である。
したがって、知識編集技術は、特定の事実をLSMに注入または上書きするために現れるが、表面的なキューや複雑な複雑な繰り返しパイプラインに過度に頼り、ノイズの多いマルチホップ条件下で崩壊する。
Reason-KEは、4つの構造化されたステージファクト認識、関連性決定、選択的応用、そして1つのパスにおける最後の推論からフィルタまでを通じて、事前学習されたLCMを操るエンドツーエンドの推論チェーンベースの編集フレームワークである。
最大4つの無関係な事実を持つMQuAKE-CFで訓練されたReason-KEは、Qwen2.5-7BのマルチホップQAの精度を90.2%に引き上げる一方で、過度な邪魔を受けた場合の6.3%の低下と、回答が漏れたときの1%の低下に悩まされている。
我々の定量的分析は、Reason-KEのレジリエンスと効率性を確認し、信頼性の高いLLM知識更新のための新しい最先端技術を確立する。
関連論文リスト
- GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - RIPPLECOT: Amplifying Ripple Effect of Knowledge Editing in Language Models via Chain-of-Thought In-Context Learning [16.486529625382182]
本稿では,Chain-of-Thought推論を統合した新しいICL編集手法であるRippleCOTを提案する。
以上の結果から,RippleCOTは7.8%から87.1%の精度向上を実現した。
論文 参考訳(メタデータ) (2024-10-04T03:37:36Z) - Evidence-Focused Fact Summarization for Knowledge-Augmented Zero-Shot Question Answering [14.389264346634507]
本稿では,QA(Quesetion Answering)の性能向上を目的とした,エビデンスに着目したFact SummarizationフレームワークであるEFSumを提案する。
実験の結果,EFSumはLDMのゼロショットQA性能を向上することがわかった。
論文 参考訳(メタデータ) (2024-03-05T13:43:58Z) - Direct Evaluation of Chain-of-Thought in Multi-hop Reasoning with Knowledge Graphs [52.42505579545893]
大規模言語モデル(LLM)は、回答とともにチェーン・オブ・シントの説明を生成するよう促されたとき、強い推論能力を示す。
本稿では,LLMの推論知識と生成したCoTの精度を評価するために,新しい識別的・生成的CoT評価パラダイムを提案する。
論文 参考訳(メタデータ) (2024-02-17T05:22:56Z) - DeepEdit: Knowledge Editing as Decoding with Constraints [118.78008395850888]
多段階推論における知識の編集は、大規模言語モデル(LLM)の知識編集(KE)において大きな課題となっている。
我々は、深度優先探索により新しい知識を持つコヒーレント推論チェーンを生成するLLMの能力を高める新しいKEフレームワークDEEPEDITを提案する。
DEEPEDITに加えて, MQUAKE-2002 と MQUAKE-HARD という2つの新しい KE ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-01-19T03:48:27Z) - Take a Step Back: Evoking Reasoning via Abstraction in Large Language
Models [122.19845578690466]
Step-Back Promptingは、LLMが抽象化を行い、特定の詳細を含むインスタンスから高レベルの概念と第一原則を導出することを可能にする。
推論を導くために概念と原則を用いることで、LLMはソリューションへの正しい推論パスに従うことで、その能力を大幅に向上します。
論文 参考訳(メタデータ) (2023-10-09T19:48:55Z) - Knowledge-Driven CoT: Exploring Faithful Reasoning in LLMs for
Knowledge-intensive Question Answering [17.672572064705445]
CoT(Chain-of-Thought)を備えた大規模言語モデル(LLM)は、様々な下流タスクにおいて顕著な推論能力を示している。
我々は、外部知識との相互作用を通じてCoTの推論トレースを検証・修正する、KD-CoT(Knowled-Driven Chain-of-Thought)というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T09:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。