論文の概要: CIP: A Plug-and-Play Causal Prompting Framework for Mitigating Hallucinations under Long-Context Noise
- arxiv url: http://arxiv.org/abs/2512.11282v1
- Date: Fri, 12 Dec 2025 05:02:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.661517
- Title: CIP: A Plug-and-Play Causal Prompting Framework for Mitigating Hallucinations under Long-Context Noise
- Title(参考訳): CIP:長期雑音下での幻覚を緩和するためのプラグアンドプレイカウンサル・プロンプティング・フレームワーク
- Authors: Qingsen Ma, Dianyun Wang, Ran Jing, Yujun Sun, Zhenbo Xu,
- Abstract要約: 大規模な言語モデルは、長い検索コンテキストや騒々しい検索コンテキストを処理するときに幻覚を引き起こすことが多い。
入力段階で幻覚を緩和する軽量でプラグアンドプレイの因果関係のフレームワークであるCIPを提案する。
- 参考スコア(独自算出の注目度): 4.702634182055576
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models often hallucinate when processing long and noisy retrieval contexts because they rely on spurious correlations rather than genuine causal relationships. We propose CIP, a lightweight and plug-and-play causal prompting framework that mitigates hallucinations at the input stage. CIP constructs a causal relation sequence among entities, actions, and events and injects it into the prompt to guide reasoning toward causally relevant evidence. Through causal intervention and counterfactual reasoning, CIP suppresses non causal reasoning paths, improving factual grounding and interpretability. Experiments across seven mainstream language models, including GPT-4o, Gemini 2.0 Flash, and Llama 3.1, show that CIP consistently enhances reasoning quality and reliability, achieving 2.6 points improvement in Attributable Rate, 0.38 improvement in Causal Consistency Score, and a fourfold increase in effective information density. API level profiling further shows that CIP accelerates contextual understanding and reduces end to end response latency by up to 55.1 percent. These results suggest that causal reasoning may serve as a promising paradigm for improving the explainability, stability, and efficiency of large language models.
- Abstract(参考訳): 大規模な言語モデルは、真の因果関係ではなく、急激な相関に頼っているため、長く騒々しい検索コンテキストを処理する際に幻覚を引き起こすことが多い。
入力段階で幻覚を緩和する,軽量でプラグアンドプレイの因果的促進フレームワークであるCIPを提案する。
CIPは、エンティティ、アクション、イベント間の因果関係のシーケンスを構築し、因果関係のある証拠への推論を導くプロンプトにそれを注入する。
因果的介入と反ファクト的推論を通じて、CIPは非因果的推論経路を抑制し、事実的根拠と解釈可能性を改善する。
GPT-4o、Gemini 2.0 Flash、Llama 3.1を含む7つの主要言語モデルを対象とした実験では、CIPは推論品質と信頼性を一貫して向上し、Attributable Rate 2.6ポイントの改善、Causal Consistency Score 0.38の改善、および4倍の効果的な情報密度を実現している。
APIレベルのプロファイリングは、CIPがコンテキスト理解を加速し、エンドツーエンドの応答遅延を最大55.1%削減することを示している。
これらの結果から,因果推論は,大規模言語モデルの説明可能性,安定性,効率性を改善する上で有望なパラダイムである可能性が示唆された。
関連論文リスト
- Perception-Consistency Multimodal Large Language Models Reasoning via Caption-Regularized Policy Optimization [72.30168853571216]
マルチモーダルな言語モデルは、視覚知覚と象徴的推論を統合するタスクに優れています。
CapPO は,(1) 原画像上の条件付き応答とキャプション上の条件付き応答のばらつきを最小限に抑えるキャプションベース整合性正規化,(2) KL 重み付き優位性推定スキームを適応的に拡張して知覚整合性トラジェクトリを強化するキャプションベース整合性正規化という2つの重要なメカニズムを統合した。
論文 参考訳(メタデータ) (2025-09-26T04:32:26Z) - DEPTH: Hallucination-Free Relation Extraction via Dependency-Aware Sentence Simplification and Two-tiered Hierarchical Refinement [22.164114662885652]
DEPTHは、関係抽出パイプラインに依存性を意識したsEntence simPlificationと2階層階層改良を統合するフレームワークである。
以上の結果から,DEPTHは平均幻覚率を7.0%まで下げる一方で,最先端のベースラインよりも平均F1スコアを17.2%向上させることを示した。
論文 参考訳(メタデータ) (2025-08-20T03:35:24Z) - ConciseHint: Boosting Efficient Reasoning via Continuous Concise Hints during Generation [74.37307916314407]
提案するフレームワークはConciseHintと呼ばれ,推論モデルが簡潔に話すことを継続的に奨励する。
DeepSeek-R1 および Qwen-3 シリーズを含む最先端の LRM 実験により,本手法が簡潔な推論を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2025-06-23T16:20:44Z) - Argument-Centric Causal Intervention Method for Mitigating Bias in Cross-Document Event Coreference Resolution [12.185497507437555]
クロスドキュメントイベント参照解決(CD-ECR)は、複数のドキュメントにまたがるイベントの言及が、同じ実世界の出来事を指すかどうかを判断する。
本稿ではArgument-Centric Causal Intervention(ACCI)に基づく新しい手法を提案する。
ACCIは、引き起こし語摂動の因果的影響を定量化する反ファクト的推論モジュールと、意味論的根拠のある情報に対する高い感度を促進するために、引数認識拡張モジュールを統合する。
論文 参考訳(メタデータ) (2025-06-02T09:46:59Z) - Cause and Effect: Can Large Language Models Truly Understand Causality? [1.2334534968968969]
本研究では,CARE CA(Content Aware Reasoning Enhancement with Counterfactual Analysis)フレームワークという新しいアーキテクチャを提案する。
提案するフレームワークには,ConceptNetと反ファクト文を備えた明示的な因果検出モジュールと,大規模言語モデルによる暗黙的な因果検出が組み込まれている。
ConceptNetの知識は、因果的発見、因果的識別、反事実的推論といった複数の因果的推論タスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:02:14Z) - VCD: Visual Causality Discovery for Cross-Modal Question Reasoning [11.161509939879428]
我々は,Cross-Modal Question Reasoning (CMQR) という視覚的質問推論フレームワークを提案する。
視覚因果構造を明らかにするために,視覚因果発見(VCD)アーキテクチャを提案する。
言語意味論と時空間表現の微粒な相互作用を調整するために,対話型視覚言語変換器(IVLT)を構築した。
論文 参考訳(メタデータ) (2023-04-17T08:56:16Z) - CausalDialogue: Modeling Utterance-level Causality in Conversations [83.03604651485327]
クラウドソーシングを通じて、CausalDialogueという新しいデータセットをコンパイルし、拡張しました。
このデータセットは、有向非巡回グラフ(DAG)構造内に複数の因果効果対を含む。
ニューラル会話モデルの訓練における発話レベルにおける因果性の影響を高めるために,Exponential Average Treatment Effect (ExMATE) と呼ばれる因果性強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T18:31:50Z) - Cross-Modal Causal Relational Reasoning for Event-Level Visual Question
Answering [134.91774666260338]
既存の視覚的質問応答法は、しばしばクロスモーダルなスプリアス相関と過度に単純化されたイベントレベルの推論プロセスに悩まされる。
本稿では,イベントレベルの視覚的質問応答の課題に対処するために,モーダルな因果関係推論のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T04:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。