論文の概要: Efficient and Reproducible Biomedical Question Answering using Retrieval Augmented Generation
- arxiv url: http://arxiv.org/abs/2505.07917v1
- Date: Mon, 12 May 2025 14:51:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.283607
- Title: Efficient and Reproducible Biomedical Question Answering using Retrieval Augmented Generation
- Title(参考訳): Retrieval Augmented Generation を用いた効率的かつ再現可能なバイオメディカル質問応答
- Authors: Linus Stuhlmann, Michael Alexander Saxer, Jonathan Fürst,
- Abstract要約: 本研究では, バイオメディカルQAのための検索補助生成システム (RAG) を体系的に検討した。
我々はまず,BM25,BioBERT,MedCPT,ハイブリッドアプローチなど,最先端の検索手法を評価する。
最終的なRAGシステムを24M PubMedコーパス上に展開し、レトリバーが全体のパフォーマンスに与える影響を比較した。
- 参考スコア(独自算出の注目度): 1.6336299799055092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biomedical question-answering (QA) systems require effective retrieval and generation components to ensure accuracy, efficiency, and scalability. This study systematically examines a Retrieval-Augmented Generation (RAG) system for biomedical QA, evaluating retrieval strategies and response time trade-offs. We first assess state-of-the-art retrieval methods, including BM25, BioBERT, MedCPT, and a hybrid approach, alongside common data stores such as Elasticsearch, MongoDB, and FAISS, on a ~10% subset of PubMed (2.4M documents) to measure indexing efficiency, retrieval latency, and retriever performance in the end-to-end RAG system. Based on these insights, we deploy the final RAG system on the full 24M PubMed corpus, comparing different retrievers' impact on overall performance. Evaluations of the retrieval depth show that retrieving 50 documents with BM25 before reranking with MedCPT optimally balances accuracy (0.90), recall (0.90), and response time (1.91s). BM25 retrieval time remains stable (82ms), while MedCPT incurs the main computational cost. These results highlight previously not well-known trade-offs in retrieval depth, efficiency, and scalability for biomedical QA. With open-source code, the system is fully reproducible and extensible.
- Abstract(参考訳): バイオメディカル質問応答 (QA) システムは、精度、効率、スケーラビリティを確保するために効率的な検索および生成コンポーネントを必要とする。
本研究では, バイオメディカルQAのための検索・拡張生成システム(RAG)を体系的に検討し, 検索戦略と応答時間トレードオフを評価する。
まず,BM25,BioBERT,MedCPTなどの最先端検索手法と,Elasticsearch,MongoDB,FAISSなどの一般的なデータストアと併用して,PubMed(2.4Mドキュメント)の約10%のサブセットを用いて,インデックス化効率,検索レイテンシ,検索性能をエンドツーエンドRAGシステムで測定した。
これらの知見に基づいて,全24M PubMedコーパスに最終RAGシステムをデプロイし,レトリバーが全体のパフォーマンスに与える影響を比較した。
検索深度の評価によると、MedCPTをリランクする前にBM25で50の文書を取得すると、精度(0.90)、リコール(0.90)、応答時間(1.91s)が最適にバランスする。
BM25の検索時間は安定であり(82ms)、MedCPTは主な計算コストを発生させる。
これらの結果は, バイオメディカルQAの検索深度, 効率, 拡張性において, これまでに知られていないトレードオフを浮き彫りにしている。
オープンソースコードでは、システムは完全に再現可能で拡張可能である。
関連論文リスト
- DAT: Dynamic Alpha Tuning for Hybrid Retrieval in Retrieval-Augmented Generation [0.0]
DAT(Dynamic Alpha Tuning)は,クエリ毎に密度の高い検索とBM25のバランスをとる,新しいハイブリッド検索フレームワークである。
固定重み付きハイブリッド検索法を様々な評価指標で一貫して上回る。
小さなモデルであっても、DATは高いパフォーマンスを提供し、その効率性と適応性を強調します。
論文 参考訳(メタデータ) (2025-03-29T08:35:01Z) - Improving Bias Correction Standards by Quantifying its Effects on Treatment Outcomes [54.18828236350544]
Propensity score matching (PSM) は、分析のために同等の人口を選択することで選択バイアスに対処する。
異なるマッチング手法は、すべての検証基準を満たす場合でも、同じタスクに対する平均処理効果(ATE)を著しく異なるものにすることができる。
この問題に対処するため,新しい指標A2Aを導入し,有効試合数を削減した。
論文 参考訳(メタデータ) (2024-07-20T12:42:24Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z) - BMRetriever: Tuning Large Language Models as Better Biomedical Text Retrievers [48.21255861863282]
BMRetrieverは、バイオメディカル検索を強化するための一連の密集したレトリバーである。
BMRetrieverは強力なパラメータ効率を示し、410Mの派生型はベースラインを最大11.7倍まで上回っている。
論文 参考訳(メタデータ) (2024-04-29T05:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。