論文の概要: Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering
- arxiv url: http://arxiv.org/abs/2602.17911v1
- Date: Fri, 20 Feb 2026 00:17:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.187982
- Title: Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering
- Title(参考訳): 文脈依存型バイオメディカル質問応答のための条件付き推論
- Authors: Jash Rajesh Parekh, Wonbin Kweon, Joey Chan, Rezarta Islamaj, Robert Leaman, Pengcheng Jiang, Chih-Hsuan Wei, Zhizheng Wang, Zhiyong Lu, Jiawei Han,
- Abstract要約: 条件付きバイオメディカルQAの最初のベンチマークであるCondMedQAを提案する。
また、条件対応知識グラフを構成する新しいフレームワークである条件付き推論(CGR)を提案する。
以上の結果から,CGRはより確実な条件に適合した回答を選択できることがわかった。
- 参考スコア(独自算出の注目度): 21.630894843470156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current biomedical question answering (QA) systems often assume that medical knowledge applies uniformly, yet real-world clinical reasoning is inherently conditional: nearly every decision depends on patient-specific factors such as comorbidities and contraindications. Existing benchmarks do not evaluate such conditional reasoning, and retrieval-augmented or graph-based methods lack explicit mechanisms to ensure that retrieved knowledge is applicable to given context. To address this gap, we propose CondMedQA, the first benchmark for conditional biomedical QA, consisting of multi-hop questions whose answers vary with patient conditions. Furthermore, we propose Condition-Gated Reasoning (CGR), a novel framework that constructs condition-aware knowledge graphs and selectively activates or prunes reasoning paths based on query conditions. Our findings show that CGR more reliably selects condition-appropriate answers while matching or exceeding state-of-the-art performance on biomedical QA benchmarks, highlighting the importance of explicitly modeling conditionality for robust medical reasoning.
- Abstract(参考訳): 現在のQAシステムでは、医学知識が一様に適用されるが、実際の臨床推論は本質的に条件付きであると仮定される。
既存のベンチマークではそのような条件付き推論は評価されておらず、検索強化あるいはグラフベースの手法では、検索された知識が与えられたコンテキストに適用可能であることを保証するための明確なメカニズムが欠如している。
このギャップに対処するため,コンドメドQA(CondMedQA)を提案する。
さらに,条件対応の知識グラフを構築し,クエリ条件に基づいた推論パスを選択的に活性化あるいはプーンする新しいフレームワークであるCondition-Gated Reasoning (CGR)を提案する。
以上の結果から, バイオメディカルQAベンチマークにおいて, CGRは, 厳密な医学的推論のための条件性を明確にモデル化することの重要性を浮き彫りにしながら, より確実な条件適合解を選択することが示唆された。
関連論文リスト
- MedRAGChecker: Claim-Level Verification for Biomedical Retrieval-Augmented Generation [8.37586466142299]
バイオメディカルRAGのためのクレームレベル検証および診断フレームワークであるMedRAGCheckerを紹介する。
MedRAGCheckerは、質問、証拠の回収、そして生成された回答を与えられた上で、答えを原子的クレームに分解し、クレームのサポートを見積もる。
我々は、MedRAGCheckerが確実にフラグを解除し、主張を否定し、ジェネレータ間で異なるリスクプロファイルを明らかにしていることを示す。
論文 参考訳(メタデータ) (2026-01-10T10:40:42Z) - Simulating Viva Voce Examinations to Evaluate Clinical Reasoning in Large Language Models [51.91760712805404]
大規模言語モデル(LLM)におけるシーケンシャルな臨床推論を評価するためのベンチマークであるVivaBenchを紹介する。
本データセットは,医療訓練における(口頭)検査をシミュレートする対話的シナリオとして構成された1762名の医師による臨床ヴィグネットから構成される。
本分析では,臨床における認知的誤りを反映するいくつかの障害モードを同定した。
論文 参考訳(メタデータ) (2025-10-11T16:24:35Z) - Hierarchical Modeling for Medical Visual Question Answering with Cross-Attention Fusion [4.821565717653691]
Med-VQA (Medicical Visual Question Answering) は、医療画像を用いて臨床的な疑問に答え、診断を支援する。
本研究では, 詳細な医療質問に対する階層型プロンプティングと階層型アンサーデコーダの2つのモジュールを含むHiCA-VQA法を提案する。
Rad-Restructベンチマークの実験により、HiCA-VQAフレームワークは階層的なきめ細かい質問に答える上で、既存の最先端メソッドよりも優れていることが示されている。
論文 参考訳(メタデータ) (2025-04-04T03:03:12Z) - MedCoT: Medical Chain of Thought via Hierarchical Expert [48.91966620985221]
本稿では,新しい階層的検証手法であるMedCoTについて述べる。
生体画像検査における解釈可能性と精度を高めるように設計されている。
4つの標準Med-VQAデータセットに対する実験的評価は、MedCoTが既存の最先端アプローチを上回ることを示している。
論文 参考訳(メタデータ) (2024-12-18T11:14:02Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - MedLogic-AQA: Enhancing Medical Question Answering with Abstractive Models Focusing on Logical Structures [24.262037382512975]
本稿では、文脈と質問から抽出した一階述語論理(FOL)に基づく規則を利用して、よく理解された回答を生成する新しい抽象QAシステムMedLogic-AQAを提案する。
この論理的推論と抽象的 QA との独特の融合は、論理的に健全で、関連性があり、係り合う答えを生み出すために我々のシステムに等しい。
論文 参考訳(メタデータ) (2024-10-20T18:29:38Z) - Word-Sequence Entropy: Towards Uncertainty Estimation in Free-Form Medical Question Answering Applications and Beyond [52.246494389096654]
本稿ではワードシーケンスエントロピー(WSE)を紹介し,単語レベルとシーケンスレベルの不確実性を校正する手法を提案する。
We compare WSE with six baseline method on five free-form medical QA datasets, using 7 popular large language model (LLMs)。
論文 参考訳(メタデータ) (2024-02-22T03:46:08Z) - Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence [33.018873142559286]
本稿では,医療用QAシステムによって予測される回答に対して,自然言語による説明を生成するための新しい手法を提案する。
本システムは,説明生成過程における説明の質を高めるために,医学教科書から知識を抽出する。
論文 参考訳(メタデータ) (2023-10-02T16:00:37Z) - COSMO: Conditional SEQ2SEQ-based Mixture Model for Zero-Shot Commonsense
Question Answering [50.65816570279115]
社会的文脈の暗黙的な原因と影響の特定は、機械が常識的推論を実行できるようにする駆動能力である。
この領域における現在のアプローチには、目に見えない状況に直面して常識推論を行う能力がない。
本稿では,動的かつ多様なコンテンツ生成機能を備えた条件付きSEQ2SEQベースの混合モデル(COSMO)を提案する。
論文 参考訳(メタデータ) (2020-11-02T07:08:19Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。