論文の概要: MedKGent: A Large Language Model Agent Framework for Constructing Temporally Evolving Medical Knowledge Graph
- arxiv url: http://arxiv.org/abs/2508.12393v2
- Date: Tue, 19 Aug 2025 05:18:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 13:30:22.886147
- Title: MedKGent: A Large Language Model Agent Framework for Constructing Temporally Evolving Medical Knowledge Graph
- Title(参考訳): MedKGent:医学知識グラフを一時的に進化させる大規模言語モデルエージェントフレームワーク
- Authors: Duzhen Zhang, Zixiao Wang, Zhong-Zhi Li, Yahan Yu, Shuncheng Jia, Jiahua Dong, Haotian Xu, Xing Wu, Yingying Zhang, Tielin Zhang, Jie Yang, Xiuying Chen, Le Song,
- Abstract要約: 我々は、時間的に進化する医療知識グラフを構築するためのフレームワークであるMedKGentを紹介する。
生医学的知識の出現を, 微粒な日々の時系列でシミュレートする。
結果として得られるKGは156,275個のエンティティと2,971,384個のリレーショナルトリプルを含む。
- 参考スコア(独自算出の注目度): 57.54231831309079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid expansion of medical literature presents growing challenges for structuring and integrating domain knowledge at scale. Knowledge Graphs (KGs) offer a promising solution by enabling efficient retrieval, automated reasoning, and knowledge discovery. However, current KG construction methods often rely on supervised pipelines with limited generalizability or naively aggregate outputs from Large Language Models (LLMs), treating biomedical corpora as static and ignoring the temporal dynamics and contextual uncertainty of evolving knowledge. To address these limitations, we introduce MedKGent, a LLM agent framework for constructing temporally evolving medical KGs. Leveraging over 10 million PubMed abstracts published between 1975 and 2023, we simulate the emergence of biomedical knowledge via a fine-grained daily time series. MedKGent incrementally builds the KG in a day-by-day manner using two specialized agents powered by the Qwen2.5-32B-Instruct model. The Extractor Agent identifies knowledge triples and assigns confidence scores via sampling-based estimation, which are used to filter low-confidence extractions and inform downstream processing. The Constructor Agent incrementally integrates the retained triples into a temporally evolving graph, guided by confidence scores and timestamps to reinforce recurring knowledge and resolve conflicts. The resulting KG contains 156,275 entities and 2,971,384 relational triples. Quality assessments by two SOTA LLMs and three domain experts demonstrate an accuracy approaching 90%, with strong inter-rater agreement. To evaluate downstream utility, we conduct RAG across seven medical question answering benchmarks using five leading LLMs, consistently observing significant improvements over non-augmented baselines. Case studies further demonstrate the KG's value in literature-based drug repurposing via confidence-aware causal inference.
- Abstract(参考訳): 医学文献の急速な拡大は、ドメイン知識を大規模に構築・統合する上での課題が増していることを示している。
知識グラフ(KG)は、効率的な検索、自動推論、知識発見を可能にすることで、有望なソリューションを提供する。
しかしながら、現在のKG構築法は、一般に、限定的な一般化性や、大規模言語モデル(LLMs)からの帰納的な集約的なアウトプットを持つ教師付きパイプラインに依存し、生物医学的コーパスを静的として扱い、時間的ダイナミクスや進化する知識の文脈的不確実性を無視している。
これらの制約に対処するために、時間的に進化する医療用KGを構築するためのLLMエージェントフレームワークであるMedKGentを紹介する。
1975年から2023年にかけて発行された1000万冊以上のPubMed抄録を参考に、我々は詳細な日誌シリーズを通して生物医学的知識の出現をシミュレートした。
MedKGentは、Qwen2.5-32B-Instructモデルを利用した2つの特殊エージェントを使用して、日々KGを段階的に構築する。
エクストラクタエージェントは知識のトリプルを識別し、サンプリングベースの推定によって信頼度スコアを割り当て、低信頼度抽出をフィルタリングし、下流処理に通知する。
コンストラクタエージェントは、保持されたトリプルを時間的に進化するグラフに段階的に統合し、信頼スコアとタイムスタンプによってガイドされ、繰り返し発生する知識を強化し、矛盾を解決する。
結果として得られるKGは156,275個のエンティティと2,971,384個のリレーショナルトリプルを含む。
2つのSOTA LLMと3つのドメインエキスパートによる品質評価は、レイター間合意の強い90%に近づく精度を示している。
下流の実用性を評価するために,5つの主要なLCMを用いて7つの医学質問応答ベンチマークでRAGを行い,拡張されていないベースラインに対する顕著な改善を一貫して観察した。
ケーススタディは、文献に基づく薬物再精製におけるKGの価値をさらに証明する。
関連論文リスト
- Towards Reliable Medical LLMs: Benchmarking and Enhancing Confidence Estimation of Large Language Models in Medical Consultation [97.36081721024728]
本稿では,現実的な医療相談におけるマルチターンインタラクションの信頼性を評価するための最初のベンチマークを提案する。
本ベンチマークでは,3種類の医療データを統合し,診断を行う。
本稿では,エビデンスを基盤とした言語自己評価フレームワークであるMedConfを紹介する。
論文 参考訳(メタデータ) (2026-01-22T04:51:39Z) - Grounded by Experience: Generative Healthcare Prediction Augmented with Hierarchical Agentic Retrieval [29.377256313893934]
大規模言語モデル(LLM)は、豊富なパラメトリック知識に基づいて、医療の予測を強化するための有望な道を提供する。
LLMは、組み込み知識の信頼性とカバレッジに制限があるため、事実的不正確な傾向にある。
GHARは,医療におけるサブモジュール間の協調をいつ取得するか,どのように最適化するかを同時に解決する下線構造下線下線下線RAGフレームワークである。
論文 参考訳(メタデータ) (2025-11-17T12:15:46Z) - MedSeqFT: Sequential Fine-tuning Foundation Models for 3D Medical Image Segmentation [55.37355146924576]
MedSeqFTは、医用画像解析のためのシーケンシャルな微調整フレームワークである。
事前訓練されたモデルを新しいタスクに適応させ、表現能力を改善する。
最先端の微調整戦略を一貫して上回ります。
論文 参考訳(メタデータ) (2025-09-07T15:22:53Z) - Data Overdose? Time for a Quadruple Shot: Knowledge Graph Construction using Enhanced Triple Extraction [0.0]
公開医療データの急速な拡大は、臨床医や研究者にとっても課題となっている。
本稿では,バイオメディカル知識を識別・接続するための情報抽出と知識グラフの自動生成手法を提案する。
論文 参考訳(メタデータ) (2025-08-05T13:30:41Z) - Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - Agentic Medical Knowledge Graphs Enhance Medical Question Answering: Bridging the Gap Between LLMs and Evolving Medical Knowledge [6.977177904883792]
AMG-RAGは医療知識グラフの構築と継続的な更新を自動化するフレームワークである。
推論を統合し、PubMedやWikiSearchといった現在の外部証拠を検索する。
MEDQAのF1スコアは74.1%、MEDMCQAの精度は66.34パーセントで、同等のモデルと10倍から100倍のモデルの両方を上回っている。
論文 参考訳(メタデータ) (2025-02-18T16:29:45Z) - KGARevion: An AI Agent for Knowledge-Intensive Biomedical QA [31.080514888803886]
KGARevionは知識グラフに基づくエージェントで、知識集約的な質問に答える。
これは、大きな言語モデルに埋め込まれた潜伏した知識を活用することで、関連する三つ子を生成する。
そして、これらの三重項を知識グラフに対して検証し、エラーをフィルタリングし、正確で文脈的に関係のある情報のみを保持する。
論文 参考訳(メタデータ) (2024-10-07T00:17:37Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - EMERGE: Enhancing Multimodal Electronic Health Records Predictive Modeling with Retrieval-Augmented Generation [22.94521527609479]
EMERGEはRetrieval-Augmented Generation(RAG)駆動のフレームワークであり、マルチモーダルEHR予測モデリングを強化する。
時系列データと臨床ノートからエンティティを抽出し,LLM(Large Language Models)を誘導し,プロのPrimeKGと整合させる。
抽出した知識は、患者の健康状態のタスク関連サマリーを生成するために使用される。
論文 参考訳(メタデータ) (2024-05-27T10:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。