論文の概要: ReGraM: Region-First Knowledge Graph Reasoning for Medical Question Answering
- arxiv url: http://arxiv.org/abs/2601.09280v1
- Date: Wed, 14 Jan 2026 08:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.334661
- Title: ReGraM: Region-First Knowledge Graph Reasoning for Medical Question Answering
- Title(参考訳): ReGraM: 医療質問応答のための領域ファースト知識グラフ推論
- Authors: Chaerin Lee, Sohee Park, Hyunsik Na, Daseon Choi,
- Abstract要約: ReGraMは、領域優先の知識グラフ推論フレームワークである。
ReGraMが強いベースライン(KGARevion)を一貫して上回ることを示す。
また、これらの改善の原動力は、地域構築とホップワイズ推論の整合性にあることも示している。
- 参考スコア(独自算出の注目度): 0.8541350364950834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies in medical question answering (Medical QA) have actively explored the integration of large language models (LLMs) with biomedical knowledge graphs (KGs) to improve factual accuracy. However, most existing approaches still rely on traversing the entire KG or performing large-scale retrieval, which introduces substantial noise and leads to unstable multi-hop reasoning. We argue that the core challenge lies not in expanding access to knowledge, but in identifying and reasoning over the appropriate subset of evidence for each query. ReGraM is a region-first knowledge graph reasoning framework that addresses this challenge by constructing a query-aligned subgraph and performing stepwise reasoning constrained to this localized region under multiple evidence aware modes. By focusing inference on only the most relevant portion of the KG, ReGraM departs from the assumption that all relations are equally useful an assumption that rarely holds in domain-specific medical settings. Experiments on seven medical QA benchmarks demonstrate that ReGraM consistently outperforms a strong baseline (KGARevion), achieving an 8.04% absolute accuracy gain on MCQ, a 4.50% gain on SAQ, and a 42.9% reduction in hallucination rate. Ablation and qualitative analyses further show that aligning region construction with hop-wise reasoning is the primary driver of these improvements. Overall, our results highlight region-first KG reasoning as an effective paradigm for improving factual accuracy and consistency in medical QA.
- Abstract(参考訳): 医学質問応答(医学QA)の最近の研究は,大規模言語モデル(LLM)とバイオメディカル知識グラフ(KG)の統合を積極的に検討して,事実の正確性を高めている。
しかしながら、既存のほとんどのアプローチは、KG全体をトラバースしたり、大規模な検索を実行することに依存しており、これはかなりのノイズをもたらし、不安定なマルチホップ推論をもたらす。
主要な課題は、知識へのアクセスの拡大ではなく、各クエリに対する適切な証拠のサブセットを特定し、推論することにある、と我々は主張する。
ReGraMは、クエリ整合サブグラフを構築し、複数のエビデンス対応モードの下で、この局所的に制約されたステップワイズ推論を実行することで、この課題に対処する領域優先の知識グラフ推論フレームワークである。
推論をKGの最も関係のある部分のみにフォーカスすることで、ReGraMは、すべての関係がドメイン固有の医療環境においてほとんど存在しない仮定として等しく有用であるという前提から逸脱する。
7つの医学QAベンチマークの実験では、ReGraMは強いベースライン(KGARevion)を一貫して上回り、MCQでは8.04%、SAQでは4.50%、幻覚率は42.9%低下している。
アブレーションおよび定性的分析により、これらの改善の主要な要因は、ホップワイズ推論による領域構築の整合性であることが示された。
以上の結果から, 地域別KG推論は, 医療用QAの精度と整合性の向上に有効なパラダイムであることが示唆された。
関連論文リスト
- From Evidence-Based Medicine to Knowledge Graph: Retrieval-Augmented Generation for Sports Rehabilitation and a Domain Benchmark [12.595335483488052]
医学において、大規模な言語モデルは、最新の外部証拠のアウトプットを得るために、検索強化世代(RAG)にますます依存している。
本研究は,(1)クエリと検索されたエビデンス間のPICOアライメントの欠如,(2)再ランク付け時のエビデンス階層的考察の欠如,の2つの主要なギャップに対処する。
本稿では,知識グラフ構築と検索にPICOフレームワークを統合することにより,EMMをグラフベースRAGに適用するための一般化可能な戦略を提案する。
論文 参考訳(メタデータ) (2026-01-01T05:20:54Z) - ReasonMed: A 370K Multi-Agent Generated Dataset for Advancing Medical Reasoning [54.30630356786752]
ReasonMedは、これまでで最大の医療推論データセットで、370万の高品質な例がある。
マルチエージェント生成、検証、改善プロセスを通じて構築される。
ReasonMedを用いて、簡潔な答えの要約と詳細なCoT推論を統合することで、最も堅牢な微調整結果が得られる。
論文 参考訳(メタデータ) (2025-06-11T08:36:55Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - KGARevion: An AI Agent for Knowledge-Intensive Biomedical QA [31.080514888803886]
KGARevionは知識グラフに基づくエージェントで、知識集約的な質問に答える。
これは、大きな言語モデルに埋め込まれた潜伏した知識を活用することで、関連する三つ子を生成する。
そして、これらの三重項を知識グラフに対して検証し、エラーをフィルタリングし、正確で文脈的に関係のある情報のみを保持する。
論文 参考訳(メタデータ) (2024-10-07T00:17:37Z) - Mitigating Hallucinations in Large Language Models via Self-Refinement-Enhanced Knowledge Retrieval [14.58181631462891]
大規模言語モデル(LLM)は、様々な領域で顕著な機能を示している。
幻覚への感受性は、医療などの重要な分野への展開に重大な課題をもたらす。
我々は,LLMの応答の事実性を高めるために,自己精製強化知識グラフ検索法(Re-KGR)を提案する。
論文 参考訳(メタデータ) (2024-05-10T15:40:50Z) - KG-Rank: Enhancing Large Language Models for Medical QA with Knowledge Graphs and Ranking Techniques [40.700477319435706]
KG-Rankは、医療領域における長文質問応答(QA)の事実性を改善するためのフレームワークである。
質問を受けると、KG-Rankは質問内の医療エンティティを自動的に識別し、関連するトリプルを検索する。
KG-RankはKGの最初の応用であり、医学的QAのランキングモデルと組み合わせて長い回答を生成する。
論文 参考訳(メタデータ) (2024-03-09T11:23:38Z) - A Review on Knowledge Graphs for Healthcare: Resources, Applications, and Promises [59.4999994297993]
この総合的なレビューは、医療知識グラフ(HKG)の現状の概要を提供することを目的としている。
我々は,既存のHKGに関する文献を網羅的に分析し,その構築方法,活用技術,応用について考察した。
このレビューは、HKGsが生物医学研究や臨床実践に大きな影響を与える可能性を強調している。
論文 参考訳(メタデータ) (2023-06-07T21:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。