論文の概要: Avoiding Knowledge Edit Skipping in Multi-hop Question Answering with Guided Decomposition
- arxiv url: http://arxiv.org/abs/2509.07555v1
- Date: Tue, 09 Sep 2025 09:49:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.257963
- Title: Avoiding Knowledge Edit Skipping in Multi-hop Question Answering with Guided Decomposition
- Title(参考訳): 案内分解による多項目質問応答における知識編集スキーピングの回避
- Authors: Yi Liu, Xiangrong Zhu, Xiangyu Liu, Wei Wei, Wei Hu,
- Abstract要約: 既存の検索強化世代(RAG)ベースの知識編集手法は,マルチホップ質問応答に苦慮していることがわかった。
本稿では, 誘導分解を用いた反復検索型知識編集手法を提案する。
実験の結果,IRAKEは,編集スキップによる編集の失敗を軽減し,マルチホップ質問応答におけるKEの最先端手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 32.73672881869734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a rapidly evolving world where information updates swiftly, knowledge in large language models (LLMs) becomes outdated quickly. Retraining LLMs is not a cost-effective option, making knowledge editing (KE) without modifying parameters particularly necessary. We find that although existing retrieval-augmented generation (RAG)-based KE methods excel at editing simple knowledge, they struggle with KE in multi-hop question answering due to the issue of "edit skipping", which refers to skipping the relevant edited fact in inference. In addition to the diversity of natural language expressions of knowledge, edit skipping also arises from the mismatch between the granularity of LLMs in problem-solving and the facts in the edited memory. To address this issue, we propose a novel Iterative Retrieval-Augmented Knowledge Editing method with guided decomposition (IRAKE) through the guidance from single edited facts and entire edited cases. Experimental results demonstrate that IRAKE mitigates the failure of editing caused by edit skipping and outperforms state-of-the-art methods for KE in multi-hop question answering.
- Abstract(参考訳): 情報更新が急速に進んでいる世界では、大きな言語モデル(LLM)の知識は急速に時代遅れになる。
LLMのリトレーニングはコスト効率のよい選択肢ではなく、特にパラメータを変更することなく知識編集(KE)を行う。
既存の検索強化世代(RAG)ベースのKE手法は単純な知識の編集に優れるが、「編集スキップ」という問題により、マルチホップ質問応答においてKEと競合する。
知識の自然言語表現の多様性に加えて、編集スキップは問題解決におけるLLMの粒度と編集メモリの事実とのミスマッチから生じる。
この問題に対処するために,1つの編集事実と全編集事例からのガイダンスを用いて,ガイド付き分解(IRAKE)を用いた新しい反復検索型知識編集手法を提案する。
実験の結果,IRAKEは,編集スキップによる編集の失敗を軽減し,マルチホップ質問応答におけるKEの最先端手法よりも優れていることがわかった。
関連論文リスト
- AnyEdit: Edit Any Knowledge Encoded in Language Models [69.30638272162267]
大規模言語モデル(LLM)のための新しい自動回帰編集パラダイムであるAnyEditを提案する。
長い形式の知識を逐次チャンクに分解し、各チャンク内のキートークンを反復的に編集し、一貫性と正確な出力を保証する。
UnKEBench、AKEW、そして我々の長文の多様な知識のための新しいEditEverythingデータセットを含むベンチマークでは、強いベースラインを21.5%上回っている。
論文 参考訳(メタデータ) (2025-02-08T16:18:37Z) - AlphaEdit: Null-Space Constrained Knowledge Editing for Language Models [63.209935157623946]
大型言語モデル(LLM)は、しばしば誤った知識や時代遅れの知識による幻覚を示す。
パラメータに適用する前に、保存された知識のnull空間に摂動を投影する新しいソリューションであるAlphaEditを紹介する。
我々は,この予測が保存知識を問うと,後編集後のLLMの出力が変化しないことを理論的に証明する。
論文 参考訳(メタデータ) (2024-10-03T10:06:27Z) - LLM-Based Multi-Hop Question Answering with Knowledge Graph Integration in Evolving Environments [35.3938477255058]
本稿では,大規模言語モデル(GMeLLo)のためのグラフメモリベースの編集について述べる。
これは、知識グラフの明示的な知識表現と、大規模言語モデルの言語的柔軟性を融合させる、単純で効果的な方法である。
以上の結果から,GMeLLoはマルチホップ質問応答ベンチマークであるMQuAKEにおいて,最先端の知識編集手法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-08-28T16:15:45Z) - Enhancing Multi-hop Reasoning through Knowledge Erasure in Large Language Model Editing [38.590823330865845]
大規模言語モデル(LLM)は、内部知識の不正確さと時代遅れの情報による課題に直面している。
知識編集はこれらの問題を緩和するための重要なアプローチとして現れてきた。
大規模言語モデル編集(KELE)のための知識消去機構を組み込んだ新しい知識編集手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T14:53:33Z) - On the Robustness of Editing Large Language Models [57.477943944826904]
大型言語モデル(LLM)はコミュニケーションAIの構築において重要な役割を担っているが、効率的な更新の課題に直面している。
この研究は、編集方法の長所と短所を理解し、コミュニケーション型AIの実践的応用を促進することを目的としている。
論文 参考訳(メタデータ) (2024-02-08T17:06:45Z) - DeepEdit: Knowledge Editing as Decoding with Constraints [118.78008395850888]
多段階推論における知識の編集は、大規模言語モデル(LLM)の知識編集(KE)において大きな課題となっている。
我々は、深度優先探索により新しい知識を持つコヒーレント推論チェーンを生成するLLMの能力を高める新しいKEフレームワークDEEPEDITを提案する。
DEEPEDITに加えて, MQUAKE-2002 と MQUAKE-HARD という2つの新しい KE ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-01-19T03:48:27Z) - EasyEdit: An Easy-to-use Knowledge Editing Framework for Large Language Models [45.70959260613425]
本稿では,大規模言語モデルのための知識編集フレームワークであるEasyEditを提案する。
様々な最先端の知識編集アプローチをサポートし、よく知られたLLMにも容易に適用できる。
我々はLlaMA-2の知識編集結果をEasyEditで報告し、知識編集が従来の微調整よりも優れていることを示した。
論文 参考訳(メタデータ) (2023-08-14T16:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。