論文の概要: Harnessing Collective Intelligence of LLMs for Robust Biomedical QA: A Multi-Model Approach
- arxiv url: http://arxiv.org/abs/2508.01480v1
- Date: Sat, 02 Aug 2025 20:20:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.898621
- Title: Harnessing Collective Intelligence of LLMs for Robust Biomedical QA: A Multi-Model Approach
- Title(参考訳): ロバストバイオメディカルQAのためのLCMの集団的知性:マルチモデルアプローチ
- Authors: Dimitra Panou, Alexandros C. Dimopoulos, Manolis Koubarakis, Martin Reczko,
- Abstract要約: 第13回BioASQチャレンジへの参加について紹介する。
バイオメディカルな疑問に答えるために,オープンソースの大規模言語モデル(LLM)を検索強化ジェネレータとして展開する。
我々は、13の最先端のオープンソースLLMを評価し、最終的な回答に貢献するために、あらゆる可能なモデルの組み合わせを探索した。
- 参考スコア(独自算出の注目度): 44.035446389573345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biomedical text mining and question-answering are essential yet highly demanding tasks, particularly in the face of the exponential growth of biomedical literature. In this work, we present our participation in the 13th edition of the BioASQ challenge, which involves biomedical semantic question-answering for Task 13b and biomedical question-answering for developing topics for the Synergy task. We deploy a selection of open-source large language models (LLMs) as retrieval-augmented generators to answer biomedical questions. Various models are used to process the questions. A majority voting system combines their output to determine the final answer for Yes/No questions, while for list and factoid type questions, the union of their answers in used. We evaluated 13 state-of-the-art open source LLMs, exploring all possible model combinations to contribute to the final answer, resulting in tailored LLM pipelines for each question type. Our findings provide valuable insight into which combinations of LLMs consistently produce superior results for specific question types. In the four rounds of the 2025 BioASQ challenge, our system achieved notable results: in the Synergy task, we secured 1st place for ideal answers and 2nd place for exact answers in round 2, as well as two shared 1st places for exact answers in round 3 and 4.
- Abstract(参考訳): バイオメディカルテキストマイニングと質問応答は、特にバイオメディカル文学の指数的な成長に直面して必要不可欠なタスクである。
本稿では,第13回BioASQチャレンジへの参加について紹介する。これは,第13b課題に対するバイオメディカルな意味的質問回答と,Synergyタスクのためのトピック開発のためのバイオメディカルな質問回答を含む。
バイオメディカルな疑問に答えるために,オープンソースの大規模言語モデル(LLM)を検索強化ジェネレータとして展開する。
様々なモデルを使って質問を処理している。
多数決システムでは、結果を組み合わせて、Yes/No質問の最終回答を決定する一方で、リストやファクトイドタイプの質問では、その回答の統一が使用される。
我々は13の最先端のオープンソースLLMを評価し、最終回答に寄与する全てのモデル組み合わせを探索し、各質問タイプに適したLLMパイプラインを作成した。
以上の結果から, LLMの組み合わせが特定の質問に対して, 常に優れた結果をもたらすのか, 重要な知見が得られた。
2025年のBioASQチャレンジの4ラウンドにおいて,本システムは顕著な成果を得た。Synergyタスクでは,第1位,第2位,第2ラウンドでは第2位,第3ラウンドと第4ラウンドでは第2位,第3ラウンドでは第3ラウンドと第4ラウンドでは第2位であった。
関連論文リスト
- Beyond Retrieval: Ensembling Cross-Encoders and GPT Rerankers with LLMs for Biomedical QA [0.0]
本稿では,BioASQ 2025 Task13b Challengeに参加する際の方法論と成果について述べる。
我々は,関連するPubMed文書とスニペットを検索して回答を生成することで,バイオメディカルな疑問に答えられる検索型拡張生成(RAG)システムを構築した。
我々のソリューションはMAP@10の0.1581を達成し、検索タスクのリーダーボードで10位となった。
論文 参考訳(メタデータ) (2025-07-08T01:25:06Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - Using Pretrained Large Language Model with Prompt Engineering to Answer Biomedical Questions [1.0742675209112622]
事前学習型大言語モデル(LLM)に基づく2段階情報検索と質問応答システムを提案する。
テキスト内数ショットの例でプロンプトを構築し、再サンプリングや不正な応答検出などの後処理技術を利用する。
本システムでは,文書検索における0.14 MAPスコア,スニペット検索における0.05 MAPスコア,イエス/ノー質問に対する0.96 F1スコア,ファクトイド質問に対する0.38 MRRスコア,タスク12bにおけるリスト質問に対する0.50 F1スコアを達成した。
論文 参考訳(メタデータ) (2024-07-09T11:48:49Z) - Multi-LLM QA with Embodied Exploration [55.581423861790945]
未知環境における質問応答におけるマルチエンボディードLEMエクスプローラ(MELE)の利用について検討する。
複数のLSMベースのエージェントが独立して家庭用環境に関する質問を探索し、回答する。
各問合せに対して1つの最終回答を生成するために,異なるアグリゲーション手法を解析する。
論文 参考訳(メタデータ) (2024-06-16T12:46:40Z) - Quriosity: Analyzing Human Questioning Behavior and Causal Inquiry through Curiosity-Driven Queries [91.70689724416698]
本稿では,3つの情報源から自然発生の13.5Kの質問を集めたQuriosityを紹介する。
分析の結果,データセットに因果的疑問(最大42%)が存在することが明らかとなった。
論文 参考訳(メタデータ) (2024-05-30T17:55:28Z) - Chain-of-Discussion: A Multi-Model Framework for Complex Evidence-Based Question Answering [55.295699268654545]
本稿では,オープンソースのLarge Language Model間の相乗効果を利用する新しいChain-ofDiscussionフレームワークを提案する。
実験の結果,複数のLSM間の議論は回答の質を高める上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2024-02-26T05:31:34Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Contributions to the Improvement of Question Answering Systems in the
Biomedical Domain [0.951828574518325]
この論文は、生物医学領域における質問応答(QA)の枠組みに該当する。
バイオメディカル領域におけるQAの性能向上のための4つのコントリビューションを提案する。
我々はSemBioNLQAと呼ばれる完全に自動化されたセマンティックバイオメディカルQAシステムを開発した。
論文 参考訳(メタデータ) (2023-07-25T16:31:20Z) - Getting MoRE out of Mixture of Language Model Reasoning Experts [71.61176122960464]
多様な特殊言語モデルを組み込んだMixture-of-Reasoning-Experts (MoRE) フレームワークを提案する。
実例,マルチホップ,数学的,コモンセンス推論など,さまざまな推論カテゴリに最適化されたプロンプトを備えたバックボーン言語モデルを特化する。
人間の研究では、専門家による予測と回答の選択プロセスが、アノテータがシステムの出力を信頼するタイミングをより正確に調整するのに役立ちます。
論文 参考訳(メタデータ) (2023-05-24T02:00:51Z) - Query-focused Extractive Summarisation for Biomedical and COVID-19
Complex Question Answering [0.0]
本稿では,最近の2つのBioASQ Synergy Tasksへのマッコーリー大学の参加について述べる。
本稿では, 問合せに焦点を絞った抽出要約手法を適用し, 生体医学的問題に対する複雑な回答を生成する。
The Synergy task, we selected the candidate sentences following two phases: document search and snippet search。
そこで本研究では,BioASQ10bトレーニングデータの下半期にトレーニングを行った結果の改善について検討した。
論文 参考訳(メタデータ) (2022-09-05T07:56:44Z) - Sequence Tagging for Biomedical Extractive Question Answering [12.464143741310137]
一般領域とバイオメディカル領域における質問分布の差異について検討する。
生命医学的な質問は、ファクトイド型回答(シングル回答)よりもリスト型回答(複数回答)を必要とすることが多い。
我々のアプローチは、トレーニングデータから質問に対する回答の数を決定することを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-15T15:42:34Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。