論文の概要: SQuAI: Scientific Question-Answering with Multi-Agent Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2510.15682v1
- Date: Fri, 17 Oct 2025 14:20:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.651818
- Title: SQuAI: Scientific Question-Answering with Multi-Agent Retrieval-Augmented Generation
- Title(参考訳): SQuAI:マルチエージェント検索型世代による科学的質問応答
- Authors: Ines Besrour, Jingbo He, Tobias Schreieder, Michael Färber,
- Abstract要約: SQuAIは、科学的質問応答のためのスケーラブルで信頼性の高いマルチエージェント検索拡張生成フレームワークである。
SQuAIは、arXiv.orgから230万以上のフルテキストの論文に基づいて構築されており、複雑な質問をサブクエストに分解するために4つの協力エージェントを使用している。
我々のシステムは,強いRAGベースライン上での忠実度,回答関連性,文脈関連性を+0.088 (12%)向上させる。
- 参考スコア(独自算出の注目度): 4.224843546370802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present SQuAI (https://squai.scads.ai/), a scalable and trustworthy multi-agent retrieval-augmented generation (RAG) framework for scientific question answering (QA) with large language models (LLMs). SQuAI addresses key limitations of existing RAG systems in the scholarly domain, where complex, open-domain questions demand accurate answers, explicit claims with citations, and retrieval across millions of scientific documents. Built on over 2.3 million full-text papers from arXiv.org, SQuAI employs four collaborative agents to decompose complex questions into sub-questions, retrieve targeted evidence via hybrid sparse-dense retrieval, and adaptively filter documents to improve contextual relevance. To ensure faithfulness and traceability, SQuAI integrates in-line citations for each generated claim and provides supporting sentences from the source documents. Our system improves faithfulness, answer relevance, and contextual relevance by up to +0.088 (12%) over a strong RAG baseline. We further release a benchmark of 1,000 scientific question-answer-evidence triplets to support reproducibility. With transparent reasoning, verifiable citations, and domain-wide scalability, SQuAI demonstrates how multi-agent RAG enables more trustworthy scientific QA with LLMs.
- Abstract(参考訳): SQuAI(https://squai.scads.ai/)は,大規模言語モデル(LLM)を用いた科学的質問応答(QA)のための,スケーラブルで信頼性の高いマルチエージェント検索拡張生成(RAG)フレームワークである。
SQuAIは学術領域における既存のRAGシステムの主要な制限に対処し、複雑なオープンドメインの質問は正確な答え、引用による明示的な主張、何百万もの科学文書の検索を要求する。
SQuAIは、arXiv.orgから230万以上のフルテキストの論文に基づいて構築され、複雑な質問をサブクエストに分解し、ハイブリッドスパース・デンス検索を通じて目的の証拠を検索し、文書を適応的にフィルタリングし、文脈的関連性を改善するために4つの協力エージェントを使用している。
忠実さとトレーサビリティを確保するため、SQuAIは生成された各クレームのインライン引用を統合し、ソースドキュメントからのサポート文を提供する。
我々のシステムは,強いRAGベースライン上での忠実度,回答関連性,文脈関連性を+0.088 (12%)向上させる。
さらに、再現性をサポートするために、1000の科学的質問-回答-証拠三重項のベンチマークをリリースする。
SQuAIは、透明な推論、検証可能な引用、およびドメインワイドのスケーラビリティによって、マルチエージェントRAGがLLMによるより信頼できる科学的QAを実現する方法を示している。
関連論文リスト
- VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification [107.75781898355562]
証拠を厳格に検証し,回答の帰属性を高めるために設計された,VeriCiteと呼ばれる新しいフレームワークを紹介する。
我々は,5つのオープンソースLCMと4つのデータセットを対象とした実験を行い,VeriCiteが回答の正しさを維持しつつ,引用品質を大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2025-10-13T13:38:54Z) - RAGentA: Multi-Agent Retrieval-Augmented Generation for Attributed Question Answering [4.224843546370802]
本稿では,大規模言語モデル(LLM)を用いた属性質問応答フレームワークであるRAGentAを提案する。
RAGentAは、信頼できる回答生成の目標として、質問と忠実性に対するカバレッジと関連性によって定義された回答の正しさを最適化することに焦点を当てている。
フレームワークの中心は、スパースと密集したメソッドを組み合わせたハイブリッド検索戦略であり、最高の単一検索モデルと比較して、Recall@20を12.5%改善している。
論文 参考訳(メタデータ) (2025-06-20T13:37:03Z) - PeerQA: A Scientific Question Answering Dataset from Peer Reviews [51.95579001315713]
実世界の科学的、文書レベルの質問回答データセットであるPeerQAを提示する。
データセットには208の学術論文から579のQAペアが含まれており、MLとNLPが多数を占めている。
収集したデータセットを詳細に分析し、3つのタスクのベースラインシステムを確立する実験を行う。
論文 参考訳(メタデータ) (2025-02-19T12:24:46Z) - Hybrid-SQuAD: Hybrid Scholarly Question Answering Dataset [8.867885891794877]
我々は,新しい大規模Scholarly Question AnsweringデータセットであるHybrid-SQuADを紹介する。
データセットは、大きな言語モデルによって生成される10.5Kの質問応答ペアで構成されている。
RAGベースのベースラインハイブリッドQAモデルを提案し、Hybrid-SQuADテストセット上で69.65の正確な一致スコアを達成する。
論文 参考訳(メタデータ) (2024-12-03T19:37:00Z) - SciDQA: A Deep Reading Comprehension Dataset over Scientific Papers [20.273439120429025]
SciDQAは、科学論文の深い理解のためにLSMに挑戦する、理解を読むための新しいデータセットである。
他の科学的QAデータセットとは異なり、SciDQAはドメインの専門家によるピアレビューや論文の著者による回答から質問を出している。
SciDQAの質問は、図、表、方程式、付属品、補足材料にまたがる推論を必要とする。
論文 参考訳(メタデータ) (2024-11-08T05:28:22Z) - ELOQ: Resources for Enhancing LLM Detection of Out-of-Scope Questions [52.33835101586687]
本研究では,検索した文書が意味的に類似しているように見えるスコープ外質問について検討するが,答えるために必要な情報がない。
本稿では,閉経後の文書から多様なスコープ外質問を自動的に生成するための,幻覚に基づくELOQを提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - $\texttt{MixGR}$: Enhancing Retriever Generalization for Scientific Domain through Complementary Granularity [88.78750571970232]
本稿では,クエリ文書マッチングに対する高密度検索者の認識を改善するために,$texttMixGR$を紹介する。
$texttMixGR$は、粒度に基づくさまざまなメトリクスを統合スコアに融合させ、包括的なクエリドキュメントの類似性を反映させる。
論文 参考訳(メタデータ) (2024-07-15T13:04:09Z) - PaperQA: Retrieval-Augmented Generative Agent for Scientific Research [41.9628176602676]
本稿では,科学文献に関する質問に回答するためのRAGエージェントPaperQAを紹介する。
PaperQAは、全文の科学論文を通じて情報検索を行い、ソースやパスの関連性を評価し、RAGを使用して回答を提供するエージェントである。
また、文献全体にわたる全文科学論文からの情報の検索と合成を必要とする、より複雑なベンチマークであるLitQAを紹介する。
論文 参考訳(メタデータ) (2023-12-08T18:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。