論文の概要: ControlMed: Adding Reasoning Control to Medical Language Model
- arxiv url: http://arxiv.org/abs/2507.22545v1
- Date: Wed, 30 Jul 2025 10:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.142982
- Title: ControlMed: Adding Reasoning Control to Medical Language Model
- Title(参考訳): ControlMed: 医療用言語モデルに推論制御を追加する
- Authors: Sung-Min Lee, Siyoon Lee, Juyeon Kim, Kyungmin Roh,
- Abstract要約: 医療領域において、精度と説明性を高めた大規模言語モデル(LLM)の推論が採用されつつある。
既存の推論 LLM は、必要以上に長い推論プロセスを生成し、計算オーバーヘッドと応答遅延を増大させる。
推論時に推論プロセスの長さをアクティブに制御できる医療言語モデルである textbfControlMed を導入する。
- 参考スコア(独自算出の注目度): 1.0207955314209531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning Large Language Models (LLMs) with enhanced accuracy and explainability are increasingly being adopted in the medical domain, as the life-critical nature of clinical decision-making demands reliable support. Despite these advancements, existing reasoning LLMs often generate unnecessarily lengthy reasoning processes, leading to significant computational overhead and response latency. These limitations hinder their practical deployment in real-world clinical environments. To address these challenges, we introduce \textbf{ControlMed}, a medical language model that enables users to actively control the length of the reasoning process at inference time through fine-grained control markers. ControlMed is trained through a three-stage pipeline: 1) pre-training on a large-scale synthetic medical instruction dataset covering both \textit{direct} and \textit{reasoning responses}; 2) supervised fine-tuning with multi-length reasoning data and explicit length-control markers; and 3) reinforcement learning with model-based reward signals to enhance factual accuracy and response quality. Experimental results on a variety of English and Korean medical benchmarks demonstrate that our model achieves similar or better performance compared to state-of-the-art models. Furthermore, users can flexibly balance reasoning accuracy and computational efficiency by controlling the reasoning length as needed. These findings demonstrate that ControlMed is a practical and adaptable solution for clinical question answering and medical information analysis.
- Abstract(参考訳): 臨床意思決定の生命クリティカルな性質が確実なサポートを要求していることから,医療領域において,精度の向上と説明可能性の両立した大規模言語モデル(LLMs)が採用されつつある。
これらの進歩にもかかわらず、既存の推論 LLM は必要以上に長い推論プロセスを生成し、計算オーバーヘッドと応答遅延を著しく引き起こす。
これらの制限は、実際の臨床環境への実践的な展開を妨げる。
これらの課題に対処するために,詳細な制御マーカーを用いて推論時の推論プロセスの長さをアクティブに制御する医療言語モデルである‘textbf{ControlMed} を導入する。
ControlMedは3段階のパイプラインを通じてトレーニングされる。
1) \textit{direct} と \textit{reasoning response} の両方をカバーする大規模合成医療指導データセットの事前学習
2)多長さ推論データ及び明示的長さ制御マーカーを用いた微調整の監督
3) モデルに基づく報酬信号による強化学習により, 事実の精度と応答品質が向上した。
各種の英語および韓国の医療ベンチマークによる実験結果から,本モデルが最先端モデルと比較して,類似あるいは良好な性能を発揮することが示された。
さらに、ユーザは必要に応じて推論長を制御することにより、推論精度と計算効率を柔軟にバランスさせることができる。
これらの結果から, ControlMed は臨床質問応答および医療情報分析のための実用的で適応可能なソリューションであることが明らかとなった。
関連論文リスト
- Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - GEMeX-ThinkVG: Towards Thinking with Visual Grounding in Medical VQA via Reinforcement Learning [50.94508930739623]
医学的視覚的質問応答は、医学的イメージに基づいた自然言語的質問にモデルで答えることによって、臨床的な意思決定を支援することを目的としている。
現状の手法は, 信頼性の限界や解釈可能性の低下に悩まされており, 臨床医や患者がモデル生成の回答を理解し, 信頼する能力が損なわれている。
この研究はまず、回答生成を中間的推論ステップに分解するThinking with Visual Groundingデータセットを提案する。
本稿では,強化学習のための新たな報奨機構を導入し,モデル推論プロセスと最終解の整合性を改善した。
論文 参考訳(メタデータ) (2025-06-22T08:09:58Z) - CAPO: Reinforcing Consistent Reasoning in Medical Decision-Making [42.28216499263317]
Med-Zero-17Kは、純粋なRLベースのトレーニングのためのキュレートされたデータセットであり、30以上の医療画像モダリティと24の臨床的タスクを含んでいる。
本稿では,Med-VLM のための大規模 RL フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-15T13:42:46Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Citrus: Leveraging Expert Cognitive Pathways in a Medical Language Model for Advanced Medical Decision Support [22.40301339126307]
我々は、臨床専門知識とAI推論のギャップを埋める医療言語モデルであるCitrusを紹介する。
このモデルは、シミュレーションされた専門的疾患推論データの大規模なコーパスに基づいて訓練される。
我々は、独自の医療診断対話データセットを含む、最終段階のトレーニングデータをリリースする。
論文 参考訳(メタデータ) (2025-02-25T15:05:12Z) - Natural Language Programming in Medicine: Administering Evidence Based Clinical Workflows with Autonomous Agents Powered by Generative Large Language Models [29.05425041393475]
ジェネレーティブ・大型言語モデル(LLM)は医療において大きな可能性を秘めている。
本研究は, シミュレーション3次医療センターにおいて, 自律型エージェントとして機能するLSMの可能性を評価した。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。