論文の概要: LLM Ensemble for RAG: Role of Context Length in Zero-Shot Question Answering for BioASQ Challenge
- arxiv url: http://arxiv.org/abs/2509.08596v1
- Date: Wed, 10 Sep 2025 13:50:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.440682
- Title: LLM Ensemble for RAG: Role of Context Length in Zero-Shot Question Answering for BioASQ Challenge
- Title(参考訳): LLM Ensemble for RAG: Role of Context Longth in Zero-Shot Question Answering for BioASQ Challenge
- Authors: Dima Galat, Diego Molla-Aliod,
- Abstract要約: 大規模言語モデル (LLM) は情報検索に使用できる。
ゼロショットモデルのアンサンブルは、ドメイン固有のYes/No QAタスクで最先端のパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 0.03437656066916039
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Biomedical question answering (QA) poses significant challenges due to the need for precise interpretation of specialized knowledge drawn from a vast, complex, and rapidly evolving corpus. In this work, we explore how large language models (LLMs) can be used for information retrieval (IR), and an ensemble of zero-shot models can accomplish state-of-the-art performance on a domain-specific Yes/No QA task. Evaluating our approach on the BioASQ challenge tasks, we show that ensembles can outperform individual LLMs and in some cases rival or surpass domain-tuned systems - all while preserving generalizability and avoiding the need for costly fine-tuning or labeled data. Our method aggregates outputs from multiple LLM variants, including models from Anthropic and Google, to synthesize more accurate and robust answers. Moreover, our investigation highlights a relationship between context length and performance: while expanded contexts are meant to provide valuable evidence, they simultaneously risk information dilution and model disorientation. These findings emphasize IR as a critical foundation in Retrieval-Augmented Generation (RAG) approaches for biomedical QA systems. Precise, focused retrieval remains essential for ensuring LLMs operate within relevant information boundaries when generating answers from retrieved documents. Our results establish that ensemble-based zero-shot approaches, when paired with effective RAG pipelines, constitute a practical and scalable alternative to domain-tuned systems for biomedical question answering.
- Abstract(参考訳): バイオメディカル質問応答(QA)は、巨大で複雑で急速に進化するコーパスから引き出された専門知識の正確な解釈を必要とするため、重大な課題を提起する。
本研究では,大規模言語モデル (LLM) が情報検索 (IR) にどのように使用できるかを検討するとともに,0ショットモデルのアンサンブルにより,ドメイン固有のYes/No QAタスク上での最先端のパフォーマンスを実現する。
BioASQ課題タスクに対する我々のアプローチを評価すると、アンサンブルは個々のLLMよりも優れており、場合によっては、汎用性を保ちながら、コストのかかる微調整やラベル付きデータの必要性を回避しながら、ドメインチューニングされたシステムに匹敵する、あるいは超越する可能性があることが示されます。
提案手法は,Anthropic と Google のモデルを含む複数の LLM 変種からの出力を集約し,より正確でロバストな解を合成する。
さらに,研究は文脈長と性能の関係を強調し,拡張された文脈は有意義な証拠を提供するが,同時に情報希釈とモデル不整合を危険にさらす。
これらの知見は, IRをバイオメディカルQAシステムにおけるRAG(Retrieval-Augmented Generation)アプローチの重要な基盤として強調した。
LLMが検索された文書から回答を生成する際に、関連する情報境界内で動作することを保証するために、正確で焦点を絞った検索は依然として不可欠である。
以上の結果から,実効的なRAGパイプラインと組み合わせたアンサンブルベースのゼロショットアプローチが,バイオメディカル質問応答のためのドメインチューニングシステムに代わる実用的でスケーラブルな代替手段であることが確認された。
関連論文リスト
- DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - BioMol-MQA: A Multi-Modal Question Answering Dataset For LLM Reasoning Over Bio-Molecular Interactions [22.805931447412668]
BioMol-MQA データセットは (i) テキストと情報検索のための分子構造を持つマルチモーダル知識グラフ (KG) と (ii) マルチモーダル KG 上での検索と推論において LLM 機能をテストするために設計された課題からなる。
我々のベンチマークでは、既存のLLMはこれらの質問に答えるのに苦労しており、必要なバックグラウンドデータしか与えられていないことが示されており、強力なRAGフレームワークの必要性を示唆している。
論文 参考訳(メタデータ) (2025-06-06T05:48:22Z) - RAG-Enhanced Collaborative LLM Agents for Drug Discovery [28.025359322895905]
CLADDは、薬物発見タスクに適した、検索増強世代(RAG)内蔵のエージェントシステムである。
汎用LLMやドメイン固有のLLM、そして従来のディープラーニングのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-22T00:12:52Z) - On the Influence of Context Size and Model Choice in Retrieval-Augmented Generation Systems [5.69361786082969]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)の拡張手法として登場した。
我々は,様々なコンテキストサイズ,BM25,セマンティック検索を検索として評価し,8つの基本LLMについて検討した。
以上の結果から, 最終QA成績は最大15スニペットで着実に改善するが, 停滞あるいは低下がみられた。
論文 参考訳(メタデータ) (2025-02-20T17:34:34Z) - Knowledge Hierarchy Guided Biological-Medical Dataset Distillation for Domain LLM Training [10.701353329227722]
学術文献から高品質なテキストトレーニングデータの蒸留を自動化する枠組みを提案する。
われわれのアプローチは、バイオメディカル領域とより密接に一致した質問を自己評価し、生成する。
本手法は,生命科学領域の事前学習モデルと比較して,質問応答タスクを大幅に改善する。
論文 参考訳(メタデータ) (2025-01-25T07:20:44Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。