論文の概要: Open-Source Agentic Hybrid RAG Framework for Scientific Literature Review
- arxiv url: http://arxiv.org/abs/2508.05660v1
- Date: Wed, 30 Jul 2025 18:54:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-17 22:58:06.126307
- Title: Open-Source Agentic Hybrid RAG Framework for Scientific Literature Review
- Title(参考訳): 学術文献レビューのためのオープンソースエージェントハイブリッドRAGフレームワーク
- Authors: Aditya Nagori, Ricardo Accorsi Casonatto, Ayush Gautam, Abhinav Manikantha Sai Cheruvu, Rishikesan Kamaleswaran,
- Abstract要約: 本稿では,ハイブリッドRAGパイプラインを自律エージェント内にカプセル化するエージェントアプローチを提案する。
当社のパイプラインでは,PubMedやarXiv,Google Scholar APIから,バイオロジカルなオープンアクセスデータを収集しています。
Llama-3.3-70B エージェントが GraphRAG (クエリを Cypher for KG に変換する) または VectorRAG (スパースと高密度検索を組み合わせて再ランク付けする) を選択する
- 参考スコア(独自算出の注目度): 2.092154729589438
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The surge in scientific publications challenges traditional review methods, demanding tools that integrate structured metadata with full-text analysis. Hybrid Retrieval Augmented Generation (RAG) systems, combining graph queries with vector search offer promise but are typically static, rely on proprietary tools, and lack uncertainty estimates. We present an agentic approach that encapsulates the hybrid RAG pipeline within an autonomous agent capable of (1) dynamically selecting between GraphRAG and VectorRAG for each query, (2) adapting instruction-tuned generation in real time to researcher needs, and (3) quantifying uncertainty during inference. This dynamic orchestration improves relevance, reduces hallucinations, and promotes reproducibility. Our pipeline ingests bibliometric open-access data from PubMed, arXiv, and Google Scholar APIs, builds a Neo4j citation-based knowledge graph (KG), and embeds full-text PDFs into a FAISS vector store (VS) using the all-MiniLM-L6-v2 model. A Llama-3.3-70B agent selects GraphRAG (translating queries to Cypher for KG) or VectorRAG (combining sparse and dense retrieval with re-ranking). Instruction tuning refines domain-specific generation, and bootstrapped evaluation yields standard deviation for evaluation metrics. On synthetic benchmarks mimicking real-world queries, the Instruction-Tuned Agent with Direct Preference Optimization (DPO) outperforms the baseline, achieving a gain of 0.63 in VS Context Recall and a 0.56 gain in overall Context Precision. Additional gains include 0.24 in VS Faithfulness, 0.12 in both VS Precision and KG Answer Relevance, 0.11 in overall Faithfulness score, 0.05 in KG Context Recall, and 0.04 in both VS Answer Relevance and overall Precision. These results highlight the system's improved reasoning over heterogeneous sources and establish a scalable framework for autonomous, agentic scientific discovery.
- Abstract(参考訳): 科学出版物の急増は、構造化メタデータとフルテキスト分析を統合するツールを必要とする従来のレビュー手法に挑戦している。
グラフクエリとベクトル検索を組み合わせたハイブリッド検索拡張生成(RAG)システムでは、一般的には静的であり、プロプライエタリなツールに依存し、不確実な推定値がない。
本稿では,(1)クエリ毎にGraphRAGとVectorRAGを動的に選択できる自律エージェント内でハイブリッドRAGパイプラインをカプセル化するエージェントアプローチを提案する。
この動的オーケストレーションは、関連性を改善し、幻覚を減少させ、再現性を促進する。
当社のパイプラインでは,PubMed,arXiv,Google Scholar APIからの書誌的オープンアクセスデータを取り込み,Neo4j引用に基づくナレッジグラフ(KG)を構築し,全MiniLM-L6-v2モデルを用いて全文PDFをFAISSベクターストア(VS)に埋め込む。
Llama-3.3-70B エージェントは GraphRAG (クエリを Cypher for KG に変換する) または VectorRAG (スパースと高密度検索を組み合わせて再ランク付けする) を選択する。
インストラクションチューニングはドメイン固有の生成を洗練させ、ブートストラップ評価は評価指標の標準偏差をもたらす。
実世界のクエリを模倣する合成ベンチマークでは、命令調整されたエージェント(DPO)がベースラインを上回り、VSコンテキストリコールでは0.63、全体的なコンテキスト精度では0.56となっている。
VS Faithfulnessは0.24、VS PrecisionとKG Answer Relevanceは0.12、Fithfulnessスコアは0.11、KGコンテキストリコールは0.05、VS Answer Relevanceは0.04である。
これらの結果は、不均一なソースに対する推論の改善と、自律的でエージェント的な科学的発見のためのスケーラブルなフレームワークを確立することを強調している。
関連論文リスト
- HySemRAG: A Hybrid Semantic Retrieval-Augmented Generation Framework for Automated Literature Synthesis and Methodological Gap Analysis [55.2480439325792]
HySemRAGは、Extract, Transform, Load (ETL)パイプラインとRetrieval-Augmented Generation (RAG)を組み合わせたフレームワークである。
システムは、マルチ層アプローチを通じて既存のRAGアーキテクチャの制限に対処する。
論文 参考訳(メタデータ) (2025-08-01T20:30:42Z) - PrismRAG: Boosting RAG Factuality with Distractor Resilience and Strategized Reasoning [57.89188317734747]
PrismRAGはこのモデルを、イントラクタを意識したQAペアで訓練し、金の証拠と微妙なイントラクタパスを混合する。
LLMを計画し、合理化し、人間工学的な指示に頼らずに合成する推論中心の習慣を取り入れている。
論文 参考訳(メタデータ) (2025-07-25T00:15:31Z) - SCoRE: Streamlined Corpus-based Relation Extraction using Multi-Label Contrastive Learning and Bayesian kNN [0.2812395851874055]
本稿では,モジュール型かつ費用対効果の高い文レベルの関係抽出システムであるSCoREを紹介する。
SCoREは簡単なPLMスイッチングを可能にし、微調整を必要とせず、多様なコーパスやKGにスムーズに適応する。
SCoREは, エネルギー消費を大幅に削減しつつ, 最先端の手法に適合するか, 超越しているかを示す。
論文 参考訳(メタデータ) (2025-07-09T14:33:07Z) - GNN-Suite: a Graph Neural Network Benchmarking Framework for Biomedical Informatics [0.0]
本稿では,計算生物学におけるグラフニューラルネットワーク(GNN)アーキテクチャの構築とベンチマークを行うフレームワークであるGNN-Suiteを紹介する。
タンパク質-タンパク質相互作用(PPI)データから分子ネットワークを構築することにより,癌ドライバ遺伝子の同定にその有用性を示す。
GNNアーキテクチャの実装と評価のための共通フレームワークは、最高のモデルだけでなく、補完的なデータを組み込む最も効果的な方法を特定するのに役立つ。
論文 参考訳(メタデータ) (2025-05-15T21:14:30Z) - Enhancing Domain-Specific Retrieval-Augmented Generation: Synthetic Data Generation and Evaluation using Reasoning Models [0.6827423171182154]
Retrieval-Augmented Generation (RAG) システムは、技術的領域に適用した場合、大きなパフォーマンスギャップに直面します。
ドメイン固有のRAG性能を最適化するために、粒度評価指標と合成データ生成を組み合わせたフレームワークを提案する。
10トークン未満の小さなチャンクは、精度を31-42%向上させます。
論文 参考訳(メタデータ) (2025-02-21T06:38:57Z) - TrustRAG: An Information Assistant with Retrieval Augmented Generation [73.84864898280719]
TrustRAGは、インデックス付け、検索、生成という3つの視点から、acRAGを強化する新しいフレームワークである。
我々はTrustRAGフレームワークをオープンソース化し、抜粋ベースの質問応答タスク用に設計されたデモスタジオを提供する。
論文 参考訳(メタデータ) (2025-02-19T13:45:27Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - RankRAG: Unifying Context Ranking with Retrieval-Augmented Generation in LLMs [60.38044044203333]
大規模言語モデル(LLM)は、通常、検索拡張生成(RAG)において、レトリバーからトップkコンテキストを利用する。
本稿では,RAGにおける文脈ランク付けと回答生成の両目的のために,単一のLLMをチューニング可能な新しい命令微調整フレームワークであるRanRAGを提案する。
例えば、GPT-4-0613, GPT-4-turbo-2024-0409, ChatQA-1.5, RAGベンチマークの最先端性能を備えたオープンソースモデルなどである。
論文 参考訳(メタデータ) (2024-07-02T17:59:17Z) - Adaptive Universal Generalized PageRank Graph Neural Network [36.850433364139924]
グラフニューラルネットワーク(GNN)は、両方の証拠源を利用するように設計されている。
本稿では,GPR重みを適応的に学習する汎用PageRank (GPR) GNNアーキテクチャを提案する。
GPR-GNNは、合成データとベンチマークデータの両方の既存の技術と比較して、大幅な性能改善を提供する。
論文 参考訳(メタデータ) (2020-06-14T19:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。