論文の概要: Consistency-Aware Parameter-Preserving Knowledge Editing Framework for Multi-Hop Question Answering
- arxiv url: http://arxiv.org/abs/2509.18655v1
- Date: Tue, 23 Sep 2025 05:17:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.714094
- Title: Consistency-Aware Parameter-Preserving Knowledge Editing Framework for Multi-Hop Question Answering
- Title(参考訳): マルチホップ質問応答のための一貫性を考慮したパラメータ保存知識編集フレームワーク
- Authors: Lingwen Deng, Yifei Han, Long Zhang, Yue Du, Bin Li,
- Abstract要約: 知識編集の保存(PPKE)により、リトレーニングやパラメータ調整なしに、新しい情報や修正された情報でモデルを更新できる。
本稿では,MHQA 上で PPKE のための新しい一貫したフレームワークである 知識グラフを用いた一貫性認識(Consistency-Aware Preserving with Knowledge Graphs)を提案する。
- 参考スコア(独自算出の注目度): 6.2468844220835615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parameter-Preserving Knowledge Editing (PPKE) enables updating models with new or corrected information without retraining or parameter adjustment. Recent PPKE approaches based on knowledge graphs (KG) to extend knowledge editing (KE) capabilities to multi-hop question answering (MHQA). However, these methods often lack consistency, leading to knowledge contamination, unstable updates, and retrieval behaviors that fail to reflect the intended edits. Such inconsistencies undermine the reliability of PPKE in multi- hop reasoning. We present CAPE-KG, Consistency-Aware Parameter-Preserving Editing with Knowledge Graphs, a novel consistency-aware framework for PPKE on MHQA. CAPE-KG ensures KG construction, update, and retrieval are always aligned with the requirements of the MHQA task, maintaining coherent reasoning over both unedited and edited knowledge. Extensive experiments on the MQuAKE benchmark show accuracy improvements in PPKE performance for MHQA, demonstrating the effectiveness of addressing consistency in PPKE.
- Abstract(参考訳): パラメータ保存知識編集(PPKE)は、リトレーニングやパラメータ調整なしに、新しいまたは修正された情報でモデルの更新を可能にする。
近年のPPKEは知識グラフ(KG)に基づいて知識編集機能(KE)をマルチホップ質問応答(MHQA)に拡張している。
しかし、これらの手法は一貫性を欠くことが多く、知識の汚染、不安定な更新、意図した編集を反映しない検索行動を引き起こす。
このような矛盾は、マルチホップ推論におけるPPKEの信頼性を損なう。
本稿では,MHQA上のPPKEのための新しい一貫性対応フレームワークである知識グラフを用いた一貫性を考慮したパラメータ保存編集(CAPE-KG)を提案する。
CAPE-KGは、KGの構築、更新、検索が常にMHQAタスクの要求と一致していることを保証する。
MHQA における PPKE 性能の精度向上を示し, PPKE の整合性に対処することの有効性を示した。
関連論文リスト
- Diagnosing and Addressing Pitfalls in KG-RAG Datasets: Toward More Reliable Benchmarking [56.27361644734853]
知識グラフ質問 回答システムは、複雑なマルチホップ推論を評価するために高品質なベンチマークに依存している。
広く使われているにもかかわらず、WebQSPやCWQのような一般的なデータセットは、重要な品質問題に悩まされている。
我々はこれらの落とし穴を体系的に解決するLLM-in-the-loopフレームワークであるKGQAGenを紹介する。
本研究は,KGQA評価を推し進めるスケーラブルなフレームワークとして,より厳密なベンチマーク構築とKGQAGenの位置づけを提唱する。
論文 参考訳(メタデータ) (2025-05-29T14:44:52Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - CaKE: Circuit-aware Editing Enables Generalizable Knowledge Learners [109.87058236007907]
CaKE(Circuit-aware Knowledge Editing)は、大規模言語モデルにおける知識の効果的な統合を強化する新しい手法である。
実験により、CaKEは関連する推論タスク間の編集された知識をより正確かつ一貫した使用を可能にすることが示された。
論文 参考訳(メタデータ) (2025-03-20T17:14:34Z) - Knowledge Editing with Dynamic Knowledge Graphs for Multi-Hop Question Answering [31.676874886966925]
MHQA(Multi-hop Question answering)は、大規模言語モデル(LLM)において重要な課題となる。
知識編集は、LLMでMHQAの課題に対処する潜在的な解決策を提供する。
ほとんどのパラメータ保存編集手法は、不正確な検索と二次的な編集の問題によって妨げられている。
本稿では,MHQAの動的知識グラフを利用した知識編集手法であるKEDKGを紹介する。
論文 参考訳(メタデータ) (2024-12-18T12:21:46Z) - Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Leveraging Logical Rules in Knowledge Editing: A Cherry on the Top [12.982138813457812]
知識編集(KE)におけるマルチホップ質問回答(MQA)は,大規模言語モデル(LLM)において重要な課題である
本稿では, RULE-KE をベースとした知識編集フレームワーク RULE-KE を提案する。
既存のデータセットと新しいデータセットを用いた実験的評価では、RULE-KEはパラメータベースのソリューションとメモリベースのソリューションの両方のパフォーマンスを、それぞれ92%と112.9%に向上させる。
論文 参考訳(メタデータ) (2024-05-24T11:30:00Z) - Improving Embedded Knowledge Graph Multi-hop Question Answering by
introducing Relational Chain Reasoning [8.05076085499457]
知識ベース質問回答(KBQA)は、トピックエンティティと回答の間の推論を識別することで、知識ベース(KB)からのユーザ要求に答える。
KBQA の複素分岐タスクとして、マルチホップ KGQA は構造化された KG に保存された多重ホップ関係鎖の推論を必要とする。
論文 参考訳(メタデータ) (2021-10-25T06:53:02Z) - MUTANT: A Training Paradigm for Out-of-Distribution Generalization in
Visual Question Answering [58.30291671877342]
MUTANTは、モデルが知覚的に類似しているが意味的に異なる入力の変異に露出する訓練パラダイムである。
MUTANTは、VQA-CPに新しい最先端の精度を確立し、10.57%$改善した。
論文 参考訳(メタデータ) (2020-09-18T00:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。