論文の概要: MedCoG: Maximizing LLM Inference Density in Medical Reasoning via Meta-Cognitive Regulation
- arxiv url: http://arxiv.org/abs/2602.07905v1
- Date: Sun, 08 Feb 2026 10:54:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.864476
- Title: MedCoG: Maximizing LLM Inference Density in Medical Reasoning via Meta-Cognitive Regulation
- Title(参考訳): MedCoG:メタ認知制御による医療推論におけるLLM推論密度の最大化
- Authors: Yu Zhao, Hao Guan, Yongcheng Jing, Ying Zhang, Dacheng Tao,
- Abstract要約: 大規模言語モデル(LLM)は、複雑な医学的推論において強い可能性を示しているが、推論スケーリング法の下では増加が減少している。
本稿では,知識グラフを用いた医療メタ認知エージェントであるMedCoGを提案する。タスクの複雑さ,親しみ,知識密度のメタ認知評価は,手続き的,エピソード的,事実的知識の活用を動的に制御する。
実験では、5つのハードなベンチマークでMedCoGの有効性と効率が実証され、5.5倍の推論密度が得られる。
- 参考スコア(独自算出の注目度): 50.42633168081233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have shown strong potential in complex medical reasoning yet face diminishing gains under inference scaling laws. While existing studies augment LLMs with various knowledge types, it remains unclear how effectively the additional costs translate into accuracy. In this paper, we explore how meta-cognition of LLMs, i.e., their self-awareness of their own knowledge states, can regulate the reasoning process. Specifically, we propose MedCoG, a Medical Meta-Cognition Agent with Knowledge Graph, where the meta-cognitive assessments of task complexity, familiarity, and knowledge density dynamically regulate utilization of procedural, episodic, and factual knowledge. The LLM-centric on-demand reasoning aims to mitigate scaling laws by (1) reducing costs via avoiding indiscriminate scaling, (2) improving accuracy via filtering out distractive knowledge. To validate this, we empirically characterize the scaling curve and introduce inference density to quantify inference efficiency, defined as the ratio of theoretically effective cost to actual cost. Experiments demonstrate the effectiveness and efficiency of MedCoG on five hard sets of medical benchmarks, yielding 5.5x inference density. Furthermore, the Oracle study highlights the significant potential of meta-cognitive regulation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑な医学的推論において強い可能性を示しているが、推論スケーリング法の下では増加が減少している。
既存の研究では、LLMを様々な知識タイプで拡張しているが、追加コストがどの程度の精度に変換されるかは定かではない。
本稿では, LLMのメタ認知, すなわち, 自己認識の自己認識が, 推論過程をいかに制御するかを考察する。
具体的には,知識グラフを用いた医療メタ認知エージェントであるMedCoGを提案する。タスクの複雑さ,親しみ,知識密度のメタ認知評価は,手続き的,エピソード的,事実的知識の活用を動的に制御する。
LLM中心のオンデマンド推論は,(1)無差別なスケーリングを回避してコストを削減し,(2)気を散らす知識をフィルタリングすることで精度を向上させることで,スケーリング法を緩和することを目的としている。
これを検証するために, 理論的に有効なコストと実際のコストの比として定義される推論効率を定量化するために, スケーリング曲線を実験的に特徴付け, 推論密度を導入する。
実験では、5つのハードなベンチマークでMedCoGの有効性と効率が実証され、5.5倍の推論密度が得られる。
さらに、Oracleの調査はメタ認知的規制の大きな可能性を強調している。
関連論文リスト
- Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Fact or Guesswork? Evaluating Large Language Models' Medical Knowledge with Structured One-Hop Judgments [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし、適用する能力は、まだ探索されていない。
標準化された語彙と知識グラフの包括的なリポジトリであるUMLS(Unified Medical Language System)から派生したデータセットであるMKJ(Messical Knowledge Judgment dataset)を紹介する。
バイナリ分類フレームワークを通じて、MKJは、簡潔なワンホップ文の妥当性を評価することによって、LCMが基本的な医学的事実を把握できることを評価する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - Metacognitive Myopia in Large Language Models [0.0]
大規模言語モデル(LLM)は、文化的に固有のステレオタイプ、クラウドの道徳的判断、あるいは多数派の肯定的な評価を強化する潜在的に有害なバイアスを示す。
認知・生態的枠組みとしてメタ認知ミオピアを提案する。
我々の理論的枠組みは, メタ認知, 監視, 制御の2つの要素が欠如していることが, メタ認知性ミオピアの5つの症状を引き起こすことを示唆している。
論文 参考訳(メタデータ) (2024-08-10T14:43:57Z) - HyKGE: A Hypothesis Knowledge Graph Enhanced Framework for Accurate and Reliable Medical LLMs Responses [20.635793525894872]
大規模言語モデル(LLM)の精度と信頼性を向上させるための仮説知識グラフ強化(HyKGE)フレームワークを開発する。
具体的には、HyKGEはゼロショット能力とLLMの豊富な知識を仮説出力で探索し、KGの可能な探索方向を拡張する。
2つのLLMターボを用いた2つの中国医学多重選択質問データセットと1つの中国のオープンドメイン医療Q&Aデータセットの実験は、精度と説明可能性の観点からHyKGEの優位性を実証した。
論文 参考訳(メタデータ) (2023-12-26T04:49:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。