論文の概要: ArgRAG: Explainable Retrieval Augmented Generation using Quantitative Bipolar Argumentation
- arxiv url: http://arxiv.org/abs/2508.20131v1
- Date: Tue, 26 Aug 2025 13:54:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.585653
- Title: ArgRAG: Explainable Retrieval Augmented Generation using Quantitative Bipolar Argumentation
- Title(参考訳): ArgRAG: 定量的双極子配置を用いた説明可能な検索拡張生成
- Authors: Yuqicheng Zhu, Nico Potyka, Daniel Hernández, Yuan He, Zifeng Ding, Bo Xiong, Dongzhuoran Zhou, Evgeny Kharlamov, Steffen Staab,
- Abstract要約: 我々は、ブラックボックス推論を構造化推論に置き換える、説明可能な、競合可能な代替案であるArgRAGを提案する。
ArgRAGは取得した文書からQBAFを構築し、段階的意味論の下で決定論的推論を行う。
- 参考スコア(独自算出の注目度): 37.816652871790474
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) enhances large language models by incorporating external knowledge, yet suffers from critical limitations in high-stakes domains -- namely, sensitivity to noisy or contradictory evidence and opaque, stochastic decision-making. We propose ArgRAG, an explainable, and contestable alternative that replaces black-box reasoning with structured inference using a Quantitative Bipolar Argumentation Framework (QBAF). ArgRAG constructs a QBAF from retrieved documents and performs deterministic reasoning under gradual semantics. This allows faithfully explaining and contesting decisions. Evaluated on two fact verification benchmarks, PubHealth and RAGuard, ArgRAG achieves strong accuracy while significantly improving transparency.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、外部知識を取り入れて大きな言語モデルを強化するが、ノイズや矛盾する証拠に対する感受性や不透明で確率的な意思決定といった、ハイテイク領域の限界に悩まされる。
本稿では, ブラックボックス推論を定量的双極性推論フレームワーク (QBAF) を用いた構造化推論に置き換える, 説明可能な競合可能な代替案であるArgRAGを提案する。
ArgRAGは取得した文書からQBAFを構築し、段階的意味論の下で決定論的推論を行う。
これにより、決定を忠実に説明し、異議を唱えることが可能になる。
PubHealthとRAGuardの2つの事実検証ベンチマークに基づいて、ArgRAGは高い精度を実現し、透明性を著しく向上する。
関連論文リスト
- Adaptive Collaboration of Arena-Based Argumentative LLMs for Explainable and Contestable Legal Reasoning [1.4988096015658898]
ACALは、アリーナを基盤とした量的双極性論証フレームワーク(A-QBAF)と適応的マルチエージェント協調を統合する神経シンボルフレームワークである。
ACALは専門家のエージェントチームを動的に配置して議論を構築し、競合するクレームを判断するために衝突解決メカニズムを採用し、境界線事件に対して不確実性を認識したエスカレーションを利用する。
我々のフレームワークはHuman-in-the-Loop (HITL) の競合性ワークフローをサポートしており、ユーザーは基礎となる推論グラフを直接監査して修正して最終判断に影響を与えることができる。
論文 参考訳(メタデータ) (2026-02-21T17:47:13Z) - ARGORA: Orchestrated Argumentation for Causally Grounded LLM Reasoning and Decision Making [11.531465685641086]
本稿では,多専門家による議論を明示的な議論グラフにまとめるフレームワークARGORAを紹介する。
ARGORAは個々の議論を排除し、結果を再計算し、どの推論チェーンが必要かを特定する。
さらに,内的推論と外的判断を一致させる補正機構を導入する。
論文 参考訳(メタデータ) (2026-01-29T10:48:04Z) - ART: Adaptive Reasoning Trees for Explainable Claim Verification [11.001890567834094]
ART(Adaptive Reasoning Trees)は、クレーム検証のための階層的手法である。
議論の強さは、子供のペアトーナメントを通じてボトムアップを決定する。
ARTの構造的推論は,強いベースラインよりも優れていた。
論文 参考訳(メタデータ) (2026-01-09T01:01:55Z) - Adversarial Yet Cooperative: Multi-Perspective Reasoning in Retrieved-Augmented Language Models [72.4149653187766]
本稿ではAdrialversa Reasoning RAG(ARR)というReasoner-Verifierフレームワークを提案する。
ReasonerとVerifierは、回収された証拠を推論し、プロセス認識の利点によってガイドされながら、互いの論理を批判する。
複数のベンチマーク実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-08T06:57:03Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - ClueAnchor: Clue-Anchored Knowledge Reasoning Exploration and Optimization for Retrieval-Augmented Generation [82.54090885503287]
Retrieval-Augmented Generationは、外部知識を持つ大規模言語モデルを拡張して、事実性を改善する。
既存のRAGシステムは、忠実で解釈可能な推論をサポートするために必要な重要な手がかりを抽出して統合することができない。
本稿では,手掛かり付き推論探索と最適化によるRAG向上のための新しいフレームワークであるClueAnchorを提案する。
論文 参考訳(メタデータ) (2025-05-30T09:18:08Z) - AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - CDF-RAG: Causal Dynamic Feedback for Adaptive Retrieval-Augmented Generation [3.8808821719659763]
適応検索拡張生成(CDF-RAG)のための因果動的フィードバックを導入する。
CDF-RAGは、クエリを反復的に洗練し、構造化因果グラフを検索し、相互接続された知識ソース間のマルチホップ因果推論を可能にする。
我々は,CDF-RAGを4つの多様なデータセット上で評価し,既存のRAG法よりも応答精度と因果正性を向上させる能力を示した。
論文 参考訳(メタデータ) (2025-04-17T01:15:13Z) - DeepRAG: Thinking to Retrieve Step by Step for Large Language Models [92.87532210660456]
我々はマルコフ決定過程(MDP)として検索強化推論をモデル化するDeepRAGを提案する。
クエリを反復的に分解することで、DeepRAGは外部知識を取得するか、あるいは各ステップでパラメトリック推論に依存するかを動的に決定する。
実験の結果,DeepRAGは検索効率を向上し,回答精度を26.4%向上させ,検索強化推論の有効性を示した。
論文 参考訳(メタデータ) (2025-02-03T08:22:45Z) - Argumentative Large Language Models for Explainable and Contestable Claim Verification [13.045050015831903]
本稿では,議論的推論を用いた大規模言語モデルの拡張手法であるArgLLMsを紹介する。
ArgLLMsは議論フレームワークを構築し、意思決定を支援するための公式な推論の基礎となる。
我々はArgLLMsの性能を最先端技術と比較して実験的に評価した。
論文 参考訳(メタデータ) (2024-05-03T13:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。