論文の概要: ReGraM: Region-First Knowledge Graph Reasoning for Medical Question Answering
- arxiv url: http://arxiv.org/abs/2601.09280v1
- Date: Wed, 14 Jan 2026 08:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.334661
- Title: ReGraM: Region-First Knowledge Graph Reasoning for Medical Question Answering
- Title(参考訳): ReGraM: 医療質問応答のための領域ファースト知識グラフ推論
- Authors: Chaerin Lee, Sohee Park, Hyunsik Na, Daseon Choi,
- Abstract要約: ReGraMは、領域優先の知識グラフ推論フレームワークである。
ReGraMが強いベースライン(KGARevion)を一貫して上回ることを示す。
また、これらの改善の原動力は、地域構築とホップワイズ推論の整合性にあることも示している。
- 参考スコア(独自算出の注目度): 0.8541350364950834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies in medical question answering (Medical QA) have actively explored the integration of large language models (LLMs) with biomedical knowledge graphs (KGs) to improve factual accuracy. However, most existing approaches still rely on traversing the entire KG or performing large-scale retrieval, which introduces substantial noise and leads to unstable multi-hop reasoning. We argue that the core challenge lies not in expanding access to knowledge, but in identifying and reasoning over the appropriate subset of evidence for each query. ReGraM is a region-first knowledge graph reasoning framework that addresses this challenge by constructing a query-aligned subgraph and performing stepwise reasoning constrained to this localized region under multiple evidence aware modes. By focusing inference on only the most relevant portion of the KG, ReGraM departs from the assumption that all relations are equally useful an assumption that rarely holds in domain-specific medical settings. Experiments on seven medical QA benchmarks demonstrate that ReGraM consistently outperforms a strong baseline (KGARevion), achieving an 8.04% absolute accuracy gain on MCQ, a 4.50% gain on SAQ, and a 42.9% reduction in hallucination rate. Ablation and qualitative analyses further show that aligning region construction with hop-wise reasoning is the primary driver of these improvements. Overall, our results highlight region-first KG reasoning as an effective paradigm for improving factual accuracy and consistency in medical QA.
- Abstract(参考訳): 医学質問応答(医学QA)の最近の研究は,大規模言語モデル(LLM)とバイオメディカル知識グラフ(KG)の統合を積極的に検討して,事実の正確性を高めている。
しかしながら、既存のほとんどのアプローチは、KG全体をトラバースしたり、大規模な検索を実行することに依存しており、これはかなりのノイズをもたらし、不安定なマルチホップ推論をもたらす。
主要な課題は、知識へのアクセスの拡大ではなく、各クエリに対する適切な証拠のサブセットを特定し、推論することにある、と我々は主張する。
ReGraMは、クエリ整合サブグラフを構築し、複数のエビデンス対応モードの下で、この局所的に制約されたステップワイズ推論を実行することで、この課題に対処する領域優先の知識グラフ推論フレームワークである。
推論をKGの最も関係のある部分のみにフォーカスすることで、ReGraMは、すべての関係がドメイン固有の医療環境においてほとんど存在しない仮定として等しく有用であるという前提から逸脱する。
7つの医学QAベンチマークの実験では、ReGraMは強いベースライン(KGARevion)を一貫して上回り、MCQでは8.04%、SAQでは4.50%、幻覚率は42.9%低下している。
アブレーションおよび定性的分析により、これらの改善の主要な要因は、ホップワイズ推論による領域構築の整合性であることが示された。
以上の結果から, 地域別KG推論は, 医療用QAの精度と整合性の向上に有効なパラダイムであることが示唆された。
関連論文リスト
- From Evidence-Based Medicine to Knowledge Graph: Retrieval-Augmented Generation for Sports Rehabilitation and a Domain Benchmark [12.595335483488052]
医学において、大規模な言語モデルは、最新の外部証拠のアウトプットを得るために、検索強化世代(RAG)にますます依存している。
本研究は,(1)クエリと検索されたエビデンス間のPICOアライメントの欠如,(2)再ランク付け時のエビデンス階層的考察の欠如,の2つの主要なギャップに対処する。
本稿では,知識グラフ構築と検索にPICOフレームワークを統合することにより,EMMをグラフベースRAGに適用するための一般化可能な戦略を提案する。
論文 参考訳(メタデータ) (2026-01-01T05:20:54Z) - EchoBench: Benchmarking Sycophancy in Medical Large Vision-Language Models [82.43729208063468]
医療用LVLM(Large Vision-Language Models)の最近のベンチマークでは、信頼性と安全性を見越して、リーダボードの精度を強調している。
ユーザが提供した情報を非批判的に反響させる傾向のモデルについて検討する。
医療用LVLMの梅毒を系統的に評価するベンチマークであるEchoBenchを紹介する。
論文 参考訳(メタデータ) (2025-09-24T14:09:55Z) - Evaluating Large Language Models for Evidence-Based Clinical Question Answering [4.101088122511548]
大規模言語モデル (LLMs) は, 医学的, 臨床的応用において著しく進歩している。
Cochraneの体系的レビューと臨床ガイドラインから得られたベンチマークをキュレートする。
我々はソースと臨床領域間で一貫したパフォーマンスパターンを観察する。
論文 参考訳(メタデータ) (2025-09-13T15:03:34Z) - Breaking Reward Collapse: Adaptive Reinforcement for Open-ended Medical Reasoning with Enhanced Semantic Discrimination [5.685365519519041]
ルールに基づく報酬による強化学習は、視覚言語モデル(VLM)と大規模言語モデル(LLM)の推論と一般化能力を高める強力な可能性を示している。
この領域における既存の強化微調整(RFT)アプローチは主に閉鎖型視覚質問応答(VQA)をターゲットにしている
オープンエンド医療用VQAのための新しいRLフレームワークARMedを提案する。
論文 参考訳(メタデータ) (2025-08-18T14:31:26Z) - GEMeX-RMCoT: An Enhanced Med-VQA Dataset for Region-Aware Multimodal Chain-of-Thought Reasoning [60.03671205298294]
医学的視覚的質問応答は、医学的イメージに基づいた自然言語的質問にモデルで答えることによって、臨床的な意思決定を支援することを目的としている。
現在の方法はまだ、答えの信頼性の制限と解釈性の低下に悩まされている。
この研究はまず、回答を生成するプロセスが中間的推論ステップのシーケンスに先行する領域対応マルチモーダル・チェーン・オブ・ソートデータセットを提案する。
論文 参考訳(メタデータ) (2025-06-22T08:09:58Z) - ReasonMed: A 370K Multi-Agent Generated Dataset for Advancing Medical Reasoning [54.30630356786752]
ReasonMedは、これまでで最大の医療推論データセットで、370万の高品質な例がある。
マルチエージェント生成、検証、改善プロセスを通じて構築される。
ReasonMedを用いて、簡潔な答えの要約と詳細なCoT推論を統合することで、最も堅牢な微調整結果が得られる。
論文 参考訳(メタデータ) (2025-06-11T08:36:55Z) - Reasoning of Large Language Models over Knowledge Graphs with Super-Relations [53.14275361052276]
本稿では,ReKnoSフレームワークを提案する。
我々のフレームワークの主な利点は、スーパーリレーションを通して複数のリレーションパスを含めることである。
その結果、ReKnoSは既存の最先端ベースラインよりも優れた性能を示し、平均精度は2.92%向上した。
論文 参考訳(メタデータ) (2025-03-28T06:11:04Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - KGARevion: An AI Agent for Knowledge-Intensive Biomedical QA [31.080514888803886]
KGARevionは知識グラフに基づくエージェントで、知識集約的な質問に答える。
これは、大きな言語モデルに埋め込まれた潜伏した知識を活用することで、関連する三つ子を生成する。
そして、これらの三重項を知識グラフに対して検証し、エラーをフィルタリングし、正確で文脈的に関係のある情報のみを保持する。
論文 参考訳(メタデータ) (2024-10-07T00:17:37Z) - GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - Mitigating Hallucinations in Large Language Models via Self-Refinement-Enhanced Knowledge Retrieval [14.58181631462891]
大規模言語モデル(LLM)は、様々な領域で顕著な機能を示している。
幻覚への感受性は、医療などの重要な分野への展開に重大な課題をもたらす。
我々は,LLMの応答の事実性を高めるために,自己精製強化知識グラフ検索法(Re-KGR)を提案する。
論文 参考訳(メタデータ) (2024-05-10T15:40:50Z) - KG-Rank: Enhancing Large Language Models for Medical QA with Knowledge Graphs and Ranking Techniques [40.700477319435706]
KG-Rankは、医療領域における長文質問応答(QA)の事実性を改善するためのフレームワークである。
質問を受けると、KG-Rankは質問内の医療エンティティを自動的に識別し、関連するトリプルを検索する。
KG-RankはKGの最初の応用であり、医学的QAのランキングモデルと組み合わせて長い回答を生成する。
論文 参考訳(メタデータ) (2024-03-09T11:23:38Z) - Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence [33.018873142559286]
本稿では,医療用QAシステムによって予測される回答に対して,自然言語による説明を生成するための新しい手法を提案する。
本システムは,説明生成過程における説明の質を高めるために,医学教科書から知識を抽出する。
論文 参考訳(メタデータ) (2023-10-02T16:00:37Z) - A Review on Knowledge Graphs for Healthcare: Resources, Applications, and Promises [59.4999994297993]
この総合的なレビューは、医療知識グラフ(HKG)の現状の概要を提供することを目的としている。
我々は,既存のHKGに関する文献を網羅的に分析し,その構築方法,活用技術,応用について考察した。
このレビューは、HKGsが生物医学研究や臨床実践に大きな影響を与える可能性を強調している。
論文 参考訳(メタデータ) (2023-06-07T21:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。