論文の概要: Open-Source Reproduction and Explainability Analysis of Corrective Retrieval Augmented Generation
- arxiv url: http://arxiv.org/abs/2603.16169v1
- Date: Tue, 17 Mar 2026 06:38:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.134814
- Title: Open-Source Reproduction and Explainability Analysis of Corrective Retrieval Augmented Generation
- Title(参考訳): 補正検索拡張ジェネレーションのオープンソース再生と説明可能性解析
- Authors: Surya Vardhan Yalavarthi,
- Abstract要約: CRAG(Corrective Retrieval Augmented Generation)の完全オープンソース版について紹介する。
CRAGは、取得した文書の品質を評価し、修正アクションをトリガーすることにより、RAGシステムの堅牢性を向上させる。
プロプライエタリなWeb検索をWikipedia APIとオリジナルのLLaMA-2ジェネレータで置き換え,Phi-3-mini-4k-インストラクトで置き換える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Corrective Retrieval Augmented Generation (CRAG) improves the robustness of RAG systems by evaluating retrieved document quality and triggering corrective actions. However, the original implementation relies on proprietary components including the Google Search API and closed model weights, limiting reproducibility. In this work, we present a fully open-source reproduction of CRAG, replacing proprietary web search with the Wikipedia API and the original LLaMA-2 generator with Phi-3-mini-4k-instruct. We evaluate on PopQA and ARC-Challenge, demonstrating that our open-source pipeline achieves comparable performance to the original system. Furthermore, we contribute the first explainability analysis of CRAG's T5-based retrieval evaluator using SHAP, revealing that the evaluator primarily relies on named entity alignment rather than semantic similarity. Our analysis identifies key failure modes including domain transfer limitations on science questions. All code and results are available at https://github.com/suryayalavarthi/crag-reproduction.
- Abstract(参考訳): CRAG(Corrective Retrieval Augmented Generation)は、検索した文書の品質を評価し、修正動作を引き起こすことにより、RAGシステムの堅牢性を向上させる。
しかし、オリジナルの実装はGoogle Search APIやクローズドモデルウェイトなどプロプライエタリなコンポーネントに依存しており、再現性を制限している。
本研究では,プロプライエタリなWeb検索をウィキペディアAPIと,Phi-3-mini-4k-インストラクタでオリジナルのLLaMA-2ジェネレータに置き換えたCRAGの完全なオープンソース複製を提案する。
我々はPopQAとARC-Challengeを評価し、私たちのオープンソースのパイプラインが元のシステムに匹敵する性能を達成することを実証した。
さらに,CRAG の T5 に基づく検索評価器 SHAP を用いた最初の説明可能性解析を行い,この評価器は意味的類似性よりも名前付きエンティティアライメントに依存していることを明らかにした。
本分析では,科学的問題に対するドメイン転送制限を含む重要な障害モードを同定する。
すべてのコードと結果はhttps://github.com/suryayalavarthi/crag-reproduction.comで公開されている。
関連論文リスト
- TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - HiChunk: Evaluating and Enhancing Retrieval-Augmented Generation with Hierarchical Chunking [23.982187522815536]
HiChunkは、微調整 LLM と Auto-Merge 検索アルゴリズムに基づくマルチレベル文書構造化フレームワークである。
HiChunkは適切な時間消費でより優れたチャンキング品質を実現し、RAGシステム全体の性能を向上させる。
論文 参考訳(メタデータ) (2025-09-15T03:32:50Z) - Attributing Response to Context: A Jensen-Shannon Divergence Driven Mechanistic Study of Context Attribution in Retrieval-Augmented Generation [52.3707788779464]
我々は、コンテキストに対する属性応答(ARC-JSD)のための新しいJensen-Shannon Divergence駆動方式を提案する。
ARC-JSDは、追加の微調整、勾配計算、サロゲートモデリングなしで、重要な文脈文の効率的かつ正確な識別を可能にする。
TyDi QA, Hotpot QA, Musique など,様々なスケールの命令調整 LLM を用いたRAG ベンチマークの評価により,精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2025-05-22T09:04:03Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - Corrective Retrieval Augmented Generation [36.04062963574603]
Retrieval-augmented Generation (RAG) は、検索された文書の関連性に大きく依存しており、検索が失敗した場合のモデルがどのように振る舞うかについての懸念を提起する。
生成の堅牢性を改善するために,CRAG(Corrective Retrieval Augmented Generation)を提案する。
CRAGはプラグアンドプレイであり、様々なRAGベースのアプローチとシームレスに結合できる。
論文 参考訳(メタデータ) (2024-01-29T04:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。