論文の概要: Factuality and Transparency Are All RAG Needs! Self-Explaining Contrastive Evidence Re-ranking
- arxiv url: http://arxiv.org/abs/2512.05012v1
- Date: Thu, 04 Dec 2025 17:24:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.292622
- Title: Factuality and Transparency Are All RAG Needs! Self-Explaining Contrastive Evidence Re-ranking
- Title(参考訳): ファクチュアリティと透明性はすべてRAGが必要! 自己説明型コントラスト証拠の再評価
- Authors: Francielle Vargas, Daniel Pedronette,
- Abstract要約: この拡張された抽象概念は、自己説明的コントラストエビデンス・リランキング(CER)を導入している。
CERは、コントラスト学習による微調整埋め込みによる事実証拠の検索を再構築し、検索された各パスに対してトークンレベルの帰属論理を生成する。
本手法を臨床試験報告で評価した結果,CERは検索精度を向上し,RAGシステムにおける幻覚の可能性を軽減し,特に安全上重要な領域において信頼性を高めるための透明でエビデンスに基づく検索を提供することが明らかとなった。
- 参考スコア(独自算出の注目度): 0.2864713389096699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This extended abstract introduces Self-Explaining Contrastive Evidence Re-Ranking (CER), a novel method that restructures retrieval around factual evidence by fine-tuning embeddings with contrastive learning and generating token-level attribution rationales for each retrieved passage. Hard negatives are automatically selected using a subjectivity-based criterion, forcing the model to pull factual rationales closer while pushing subjective or misleading explanations apart. As a result, the method creates an embedding space explicitly aligned with evidential reasoning. We evaluated our method on clinical trial reports, and initial experimental results show that CER improves retrieval accuracy, mitigates the potential for hallucinations in RAG systems, and provides transparent, evidence-based retrieval that enhances reliability, especially in safety-critical domains.
- Abstract(参考訳): この拡張された抽象概念は、自己説明的コントラスト証拠再帰(Self-Explaining Contrastive Evidence Re-Ranking, CER)を導入している。
厳密な否定は主観性に基づく基準を用いて自動的に選択され、モデルが主観的または誤解を招く説明を押し広げながら、事実的理性を引き付けるように強制される。
結果として、明快な推論に明示的に整合した埋め込み空間を生成する。
本手法を臨床試験報告で評価した結果,CERは検索精度を向上し,RAGシステムにおける幻覚の可能性を軽減し,特に安全上重要な領域において信頼性を高めるための透明でエビデンスに基づく検索を提供することが明らかとなった。
関連論文リスト
- REFLEX: Self-Refining Explainable Fact-Checking via Disentangling Truth into Style and Substance [14.932352020762991]
本稿ではReason-Guided Fact-checking with Latent Explanations REFLEX paradigmを提案する。
バックボーンモデルの内部知識を活用して、検証精度と説明品質の両方を改善する、プラグアンドプレイの自己修正パラダイムである。
自己修正されたトレーニングサンプルはわずか465で、RELFEXは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-11-25T12:06:23Z) - Learning to Extract Rational Evidence via Reinforcement Learning for Retrieval-Augmented Generation [37.47571308389908]
Retrieval-Augmented Generation (RAG) はLarge Language Models (LLM) の精度を効果的に向上させる
それまでの手法では、明確な思考なしに証拠を直接抽出し、重要な手がかりをフィルタリングし、一般化に苦慮する危険性がある。
本稿では,(1)検索内容中の潜在的手がかりを明示的に推論し,(2)質問に答えるのに有用なキー手がかりを省略しないよう意識的に抽出することによる合理的証拠の抽出を学習するEvi Omniを提案する。
論文 参考訳(メタデータ) (2025-07-21T13:03:55Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - AMRFact: Enhancing Summarization Factuality Evaluation with AMR-Driven Negative Samples Generation [57.8363998797433]
抽象的意味表現(AMR)を用いた摂動要約を生成するフレームワークであるAMRFactを提案する。
提案手法は,AMRグラフに一貫した要約を解析し,制御された事実不整合を注入して負の例を生成し,一貫性のない事実不整合要約を高い誤差型カバレッジで生成する。
論文 参考訳(メタデータ) (2023-11-16T02:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。