論文の概要: KCR: Resolving Long-Context Knowledge Conflicts via Reasoning in LLMs
- arxiv url: http://arxiv.org/abs/2508.01273v2
- Date: Tue, 05 Aug 2025 11:26:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 13:15:14.117539
- Title: KCR: Resolving Long-Context Knowledge Conflicts via Reasoning in LLMs
- Title(参考訳): KCR:LLMにおける推論による長期的知識紛争の解決
- Authors: Xianda Zheng, Zijian Huang, Meng-Fen Chiang, Michael J. Witbrock, Kaiqi Zhao,
- Abstract要約: 我々は,LLMが矛盾する知識を解決する能力を高める,知識衝突推論(KCR)フレームワークを提案する。
KCRの基本的な考え方は、コンテキストの選択と定着に報いることによって、バックボーンLSMをトレーニングして正しい推論プロセスを確立することである。
我々は、モデルに正しい推論経路に従う推論プロセスのパラダイムを学ぶよう促すために強化学習を採用する。
- 参考スコア(独自算出の注目度): 4.4180007117819935
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Knowledge conflicts commonly arise across diverse sources, and their prevalence has increased with the advent of LLMs. When dealing with conflicts between multiple contexts, also known as \emph{inter-context knowledge conflicts}, LLMs are often confused by lengthy and conflicting contexts. To address this challenge, we propose the Knowledge Conflict Reasoning (KCR) framework, which enhances the ability of LLMs to resolve conflicting knowledge. The key idea of KCR is to train backbone LLMs to establish a correct reasoning process by rewarding them for selecting and adhering to the context with stronger logical consistency when presented with conflicting contexts. Specifically, we first extract reasoning paths, represented by either text or local knowledge graphs, from the conflicting long contexts. Subsequently, we employ Reinforcement Learning to encourage the model to learn the paradigm of reasoning process that follows correct reasoning paths rather than the incorrect counterparts. This enables the backbone models to genuinely acquire the capability to resolve inter-context knowledge conflicts within long contexts. Experimental results demonstrate that our framework significantly improves the ability of various backbone models to resolve knowledge conflicts in long-context scenarios, yielding substantial performance gains.
- Abstract(参考訳): 知識の衝突は様々な情報源に共通して発生し、LLMの出現とともにその頻度は増大している。
複数のコンテキスト間のコンフリクト、あるいは 'emph{inter-context knowledge conflicts} を扱う場合、LLMは長いコンテキストと矛盾するコンテキストによってしばしば混同される。
この課題に対処するために,LLMが矛盾する知識を解決する能力を高めるKCR(Knowledge Conflict Reasoning)フレームワークを提案する。
KCRの鍵となる考え方は、矛盾するコンテキストで提示された場合、より強力な論理的一貫性を持つコンテキストを選択し、定着させることで、正しい推論プロセスを確立するためにバックボーンLEMを訓練することである。
具体的には、まずテキストまたはローカル知識グラフで表される推論経路を、矛盾する長い文脈から抽出する。
その後、モデルに正しい推論経路に従う推論過程のパラダイムを学ぶよう促すために強化学習を採用する。
これにより、バックボーンモデルは、長いコンテキスト内でコンテキスト間知識の衝突を解決する能力を真に取得することができる。
実験により,本フレームワークは,長期コンテキストシナリオにおける知識衝突を解消する種々のバックボーンモデルの能力を大幅に向上し,大幅な性能向上をもたらすことが示された。
関連論文リスト
- MAGIC: A Multi-Hop and Graph-Based Benchmark for Inter-Context Conflicts in Retrieval-Augmented Generation [4.177310099979434]
RAGシステムでは、検索された文書が互いに矛盾したり、モデルのパラメトリックな知識と矛盾することがある。
本稿では,2つの類似しているが異なる文脈間の相違を多様かつ微妙に生成する知識グラフ(KG)に基づくフレームワークを提案する。
我々のベンチマークであるMAGICの実験結果から,LLMの内部動作に関する興味深い知見が得られた。
論文 参考訳(メタデータ) (2025-07-29T07:19:49Z) - Improving Multilingual Retrieval-Augmented Language Models through Dialectic Reasoning Argumentations [65.11348389219887]
そこで,Dialectic-RAG(Dialectic-RAG, DRAG)を提案する。
我々は、文脈内学習戦略と、より小さなモデルをインストラクションするための実演の構築の両方において、我々のフレームワークが与える影響を示す。
論文 参考訳(メタデータ) (2025-04-07T06:55:15Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - ECon: On the Detection and Resolution of Evidence Conflicts [56.89209046429291]
大規模言語モデル(LLM)の台頭は意思決定システムにおける情報の質に大きな影響を与えている。
本研究では,実世界の誤情報シナリオをシミュレートするために,多様で検証された証拠衝突を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T07:41:17Z) - ConflictBank: A Benchmark for Evaluating the Influence of Knowledge Conflicts in LLM [36.332500824079844]
大規模言語モデル (LLM) は、多くの分野にわたって顕著な進歩を遂げてきたが、知識紛争の重大な問題は研究されることはめったにない。
我々は3つの側面から知識衝突を評価するために開発された最初の総合ベンチマークであるConflictBankを紹介する。
本研究は, 誤情報, 時間的相違, 意味的相違から生じる対立を慎重に分析し, 4つのモデルファミリーと12個のLLMインスタンスに分類した。
論文 参考訳(メタデータ) (2024-08-22T02:33:13Z) - Untangle the KNOT: Interweaving Conflicting Knowledge and Reasoning Skills in Large Language Models [51.72963030032491]
大規模言語モデル(LLM)の知識文書は、時代遅れや誤った知識のためにLLMの記憶と矛盾する可能性がある。
我々は,知識紛争解決のための新しいデータセットKNOTを構築した。
論文 参考訳(メタデータ) (2024-04-04T16:40:11Z) - Knowledge Conflicts for LLMs: A Survey [24.731074825915833]
調査では、コンテキストメモリ、コンテキスト間、メモリ内コンフリクトの3つのカテゴリに焦点が当てられている。
これらの対立は、大規模言語モデルの信頼性と性能に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2024-03-13T08:02:23Z) - Resolving Knowledge Conflicts in Large Language Models [46.903549751371415]
大規模言語モデル(LLM)はしばしば知識の衝突に遭遇する。
知識衝突が発生した場合のLLMのデシラタとは何か,既存のLLMがそれを満たすのかを問う。
文脈知識の矛盾をシミュレートする評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-02T06:57:45Z) - Skills-in-Context Prompting: Unlocking Compositionality in Large Language Models [68.18370230899102]
大規模言語モデル(LLM)における構成一般化能力の活用法について検討する。
我々は,これらのスキルに基礎を置く基礎的スキルと構成的事例の両方を同じプロンプト・コンテキストで示すことが重要であることを発見した。
SKiC型データを用いた微調整LDMは、ゼロショット弱強一般化を導出できることを示す。
論文 参考訳(メタデータ) (2023-08-01T05:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。