論文の概要: ArgRAG: Explainable Retrieval Augmented Generation using Quantitative Bipolar Argumentation
- arxiv url: http://arxiv.org/abs/2508.20131v1
- Date: Tue, 26 Aug 2025 13:54:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.585653
- Title: ArgRAG: Explainable Retrieval Augmented Generation using Quantitative Bipolar Argumentation
- Title(参考訳): ArgRAG: 定量的双極子配置を用いた説明可能な検索拡張生成
- Authors: Yuqicheng Zhu, Nico Potyka, Daniel Hernández, Yuan He, Zifeng Ding, Bo Xiong, Dongzhuoran Zhou, Evgeny Kharlamov, Steffen Staab,
- Abstract要約: 我々は、ブラックボックス推論を構造化推論に置き換える、説明可能な、競合可能な代替案であるArgRAGを提案する。
ArgRAGは取得した文書からQBAFを構築し、段階的意味論の下で決定論的推論を行う。
- 参考スコア(独自算出の注目度): 37.816652871790474
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) enhances large language models by incorporating external knowledge, yet suffers from critical limitations in high-stakes domains -- namely, sensitivity to noisy or contradictory evidence and opaque, stochastic decision-making. We propose ArgRAG, an explainable, and contestable alternative that replaces black-box reasoning with structured inference using a Quantitative Bipolar Argumentation Framework (QBAF). ArgRAG constructs a QBAF from retrieved documents and performs deterministic reasoning under gradual semantics. This allows faithfully explaining and contesting decisions. Evaluated on two fact verification benchmarks, PubHealth and RAGuard, ArgRAG achieves strong accuracy while significantly improving transparency.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、外部知識を取り入れて大きな言語モデルを強化するが、ノイズや矛盾する証拠に対する感受性や不透明で確率的な意思決定といった、ハイテイク領域の限界に悩まされる。
本稿では, ブラックボックス推論を定量的双極性推論フレームワーク (QBAF) を用いた構造化推論に置き換える, 説明可能な競合可能な代替案であるArgRAGを提案する。
ArgRAGは取得した文書からQBAFを構築し、段階的意味論の下で決定論的推論を行う。
これにより、決定を忠実に説明し、異議を唱えることが可能になる。
PubHealthとRAGuardの2つの事実検証ベンチマークに基づいて、ArgRAGは高い精度を実現し、透明性を著しく向上する。
関連論文リスト
- AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - CDF-RAG: Causal Dynamic Feedback for Adaptive Retrieval-Augmented Generation [3.8808821719659763]
適応検索拡張生成(CDF-RAG)のための因果動的フィードバックを導入する。
CDF-RAGは、クエリを反復的に洗練し、構造化因果グラフを検索し、相互接続された知識ソース間のマルチホップ因果推論を可能にする。
我々は,CDF-RAGを4つの多様なデータセット上で評価し,既存のRAG法よりも応答精度と因果正性を向上させる能力を示した。
論文 参考訳(メタデータ) (2025-04-17T01:15:13Z) - DeepRAG: Thinking to Retrieve Step by Step for Large Language Models [92.87532210660456]
我々はマルコフ決定過程(MDP)として検索強化推論をモデル化するDeepRAGを提案する。
クエリを反復的に分解することで、DeepRAGは外部知識を取得するか、あるいは各ステップでパラメトリック推論に依存するかを動的に決定する。
実験の結果,DeepRAGは検索効率を向上し,回答精度を26.4%向上させ,検索強化推論の有効性を示した。
論文 参考訳(メタデータ) (2025-02-03T08:22:45Z) - Argumentative Large Language Models for Explainable and Contestable Claim Verification [13.045050015831903]
本稿では,議論的推論を用いた大規模言語モデルの拡張手法であるArgLLMsを紹介する。
ArgLLMsは議論フレームワークを構築し、意思決定を支援するための公式な推論の基礎となる。
我々はArgLLMsの性能を最先端技術と比較して実験的に評価した。
論文 参考訳(メタデータ) (2024-05-03T13:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。