論文の概要: FVA-RAG: Falsification-Verification Alignment for Mitigating Sycophantic Hallucinations
- arxiv url: http://arxiv.org/abs/2512.07015v1
- Date: Sun, 07 Dec 2025 21:28:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.639307
- Title: FVA-RAG: Falsification-Verification Alignment for Mitigating Sycophantic Hallucinations
- Title(参考訳): FVA-RAG:Sycophanic Hallucinationを緩和するためのFalsification-Verification Alignment
- Authors: Mayank Ravishankara,
- Abstract要約: Falsification-Verification Alignment RAG(FVA-RAG)は、検索パラダイムをインダクティブ・検証(探索支援)からデダクティブ・ファルシフィケーション(耐障害性を参照)へ移行するフレームワークである。
この「アンチ・コンテクスト」に対する草案回答を明示的に重み付けする二重検証機構を導入する。
一般的な誤解のデータセットに関する予備実験では、FVA-RAGは標準的なRAGベースラインと比較して、幻覚に対する堅牢性を大幅に向上することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems have significantly reduced hallucinations in Large Language Models (LLMs) by grounding responses in external context. However, standard RAG architectures suffer from a critical vulnerability: Retrieval Sycophancy. When presented with a query based on a false premise or a common misconception, vector-based retrievers tend to fetch documents that align with the user's bias rather than objective truth, leading the model to "hallucinate with citations." In this work, we introduce Falsification-Verification Alignment RAG (FVA-RAG), a framework that shifts the retrieval paradigm from Inductive Verification (seeking support) to Deductive Falsification (seeking disproof). Unlike existing "Self-Correction" methods that rely on internal consistency, FVA-RAG deploys a distinct Adversarial Retrieval Policy that actively generates "Kill Queries"-targeted search terms designed to surface contradictory evidence. We introduce a dual-verification mechanism that explicitly weighs the draft answer against this "Anti-Context." Preliminary experiments on a dataset of common misconceptions demonstrate that FVA-RAG significantly improves robustness against sycophantic hallucinations compared to standard RAG baselines, effectively acting as an inference-time "Red Team" for factual generation.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは、外部コンテキストでの応答をグラウンド化することによって、Large Language Models (LLM) における幻覚を著しく低減した。
しかし、標準的なRAGアーキテクチャは重大な脆弱性に悩まされている。
虚偽の前提や共通の誤解に基づくクエリを提示すると、ベクトルベースの検索者は、客観的な真理ではなく、ユーザのバイアスに沿った文書を取得する傾向にあり、モデルが「引用に幻滅する」傾向にある。本研究では、帰納的検証(インダクティブ・検証)から帰納的Falsification(ディダクティブ・ファルシフィケーション)へ、学習パラダイムを移行させるフレームワークであるFVA-RAG(Falsification-Verification Alignment RAG)を紹介する。
内部整合性に依存する既存の「自己補正」手法とは異なり、FVA-RAGは「キルクェリ」をターゲットとした探索用語を積極的に生成する独自の逆検索ポリシーを展開している。
本稿では、この「アンチコンテキスト」に対するドラフト回答を明示的に重み付けする二重検証機構を導入する。
一般的な誤解のデータセットに関する予備実験では、FVA-RAGは標準的なRAGベースラインと比較して、幻覚に対する堅牢性を大幅に改善し、事実上、実際の生成のための推論時間「レッドチーム」として機能することを示した。
関連論文リスト
- Abductive Inference in Retrieval-Augmented Language Models: Generating and Validating Missing Premises [0.0]
本稿では,帰納的推論をLLMに組み込むフレームワークを提案する。
帰納的推論とマルチホップQAベンチマークの実験結果から,本手法は解答精度と帰納的忠実度の両方を改善することが示された。
この研究は、RAGシステムの堅牢性と説明可能性を高めるための有望な方向として、帰納的推論を強調している。
論文 参考訳(メタデータ) (2025-11-06T03:37:24Z) - Two Heads Are Better Than One: Audio-Visual Speech Error Correction with Dual Hypotheses [71.34350093068473]
本稿では,音声視覚音声認識(AVSR)における生成誤り訂正(GER)フレームワークの新たなパラダイムを提案する。
我々のフレームワークであるDualHypは、独立した自動音声認識(ASR)モデルと視覚音声認識(VSR)モデルから独立したN-best仮説を構成するために、大規模言語モデル(LLM)を強制する。
我々のフレームワークは、標準のASRベースラインよりもLRS2ベンチマークで57.7%のエラー率を獲得していますが、シングルストリームのGERアプローチでは10%のゲインしか達成できません。
論文 参考訳(メタデータ) (2025-10-15T08:27:16Z) - Enhancing Retrieval Augmentation via Adversarial Collaboration [50.117273835877334]
我々は「検索幻覚」に対処するため、Adrial Collaboration RAG(AC-RAG)フレームワークを提案する。
AC-RAGは、知識ギャップを識別するジェネリスト検出器と、正確な解決策を提供するドメイン特化リゾルバという2つの異種エージェントを使用している。
実験により、AC-RAGは検索精度を大幅に向上し、様々な垂直領域における最先端RAG法より優れていることが示された。
論文 参考訳(メタデータ) (2025-09-18T08:54:20Z) - MetaRAG: Metamorphic Testing for Hallucination Detection in RAG Systems [0.0]
本稿では,Retrieval-Augmented Generation (RAG)システムにおける幻覚検出のためのテストフレームワークであるMetaRAGを提案する。
MetaRAGは、リアルタイム、教師なし、ブラックボックスの設定で動作し、グランドトラスト参照もモデル内部へのアクセスも必要としない。
アイデンティティを意識したAIにとって、MetaRAGは、サポート対象の主張を、その発生箇所のファクトイドでローカライズする。
論文 参考訳(メタデータ) (2025-09-11T11:18:23Z) - Faithfulness-Aware Uncertainty Quantification for Fact-Checking the Output of Retrieval Augmented Generation [108.13261761812517]
本稿では,RAG出力における幻覚検出の新しい手法であるFRANQ(Fithfulness-based Retrieval Augmented Uncertainty Quantification)を紹介する。
本稿では,事実性と忠実性の両方に注釈を付したQAデータセットを提案する。
論文 参考訳(メタデータ) (2025-05-27T11:56:59Z) - The Silent Saboteur: Imperceptible Adversarial Attacks against Black-Box Retrieval-Augmented Generation Systems [101.68501850486179]
本稿では,RAGシステムに対する敵攻撃について検討し,その脆弱性を同定する。
このタスクは、ターゲット文書を検索する非知覚的な摂動を見つけることを目的としており、もともとはトップ$k$の候補セットから除外されていた。
本稿では、攻撃者とターゲットRAG間の相互作用を追跡する強化学習ベースのフレームワークであるReGENTを提案する。
論文 参考訳(メタデータ) (2025-05-24T08:19:25Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - CDF-RAG: Causal Dynamic Feedback for Adaptive Retrieval-Augmented Generation [3.8808821719659763]
適応検索拡張生成(CDF-RAG)のための因果動的フィードバックを導入する。
CDF-RAGは、クエリを反復的に洗練し、構造化因果グラフを検索し、相互接続された知識ソース間のマルチホップ因果推論を可能にする。
我々は,CDF-RAGを4つの多様なデータセット上で評価し,既存のRAG法よりも応答精度と因果正性を向上させる能力を示した。
論文 参考訳(メタデータ) (2025-04-17T01:15:13Z) - Worse than Zero-shot? A Fact-Checking Dataset for Evaluating the Robustness of RAG Against Misleading Retrievals [5.605770511387228]
RAGuardは、不正検索に対するRAGシステムの堅牢性を評価する最初のベンチマークである。
合成ノイズに依存する以前のベンチマークとは異なり、ファクトチェックデータセットは自然に発生する誤報をキャプチャする。
論文 参考訳(メタデータ) (2025-02-22T05:50:15Z) - Controlling Risk of Retrieval-augmented Generation: A Counterfactual Prompting Framework [77.45983464131977]
我々は、RAGモデルの予測が誤りであり、現実のアプリケーションにおいて制御不能なリスクをもたらす可能性がどの程度あるかに焦点を当てる。
本研究は,RAGの予測に影響を及ぼす2つの重要な潜伏要因を明らかにする。
我々は,これらの要因をモデルに誘導し,その応答に与える影響を解析する,反実的プロンプトフレームワークを開発した。
論文 参考訳(メタデータ) (2024-09-24T14:52:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。