論文の概要: Calibration-Aware Prompt Learning for Medical Vision-Language Models
- arxiv url: http://arxiv.org/abs/2509.15226v1
- Date: Thu, 18 Sep 2025 17:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.40463
- Title: Calibration-Aware Prompt Learning for Medical Vision-Language Models
- Title(参考訳): 医用ビジョンランゲージモデルのための校正支援型プロンプト学習
- Authors: Abhishek Basu, Fahad Shamshad, Ashshak Sharifdeen, Karthik Nandakumar, Muhammad Haris Khan,
- Abstract要約: ミススカラー予測は、過度に自信過剰なエラーを引き起こし、臨床信頼と意思決定の信頼性を損なう。
本稿では,Med-VLM を即時チューニングする最初のフレームワークである CalibPrompt を紹介する。
CalibPromptは、クリーンな精度に大きな影響を及ぼすことなく、キャリブレーションを継続的に改善する。
- 参考スコア(独自算出の注目度): 44.97741487992985
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Medical Vision-Language Models (Med-VLMs) have demonstrated remarkable performance across diverse medical imaging tasks by leveraging large-scale image-text pretraining. However, their confidence calibration is largely unexplored, and so remains a significant challenge. As such, miscalibrated predictions can lead to overconfident errors, undermining clinical trust and decision-making reliability. To address this, we introduce CalibPrompt, the first framework to calibrate Med-VLMs during prompt tuning. CalibPrompt optimizes a small set of learnable prompts with carefully designed calibration objectives under scarce labeled data regime. First, we study a regularizer that attempts to align the smoothed accuracy with the predicted model confidences. Second, we introduce an angular separation loss to maximize textual feature proximity toward improving the reliability in confidence estimates of multimodal Med-VLMs. Extensive experiments on four publicly available Med-VLMs and five diverse medical imaging datasets reveal that CalibPrompt consistently improves calibration without drastically affecting clean accuracy. Our code is available at https://github.com/iabh1shekbasu/CalibPrompt.
- Abstract(参考訳): 医用ビジョン・ランゲージモデル(Med-VLMs)は、大規模画像テキスト事前学習を活用することで、様々な医療画像タスクにおいて顕著な性能を示した。
しかし、彼らの信頼性の校正はほとんど未調査であり、それでも重要な課題である。
そのため、誤った予測が過度に自信過剰なエラーを引き起こし、臨床信頼や意思決定の信頼性を損なう可能性がある。
そこで本研究では,即時チューニング時にメドVLMを校正する最初のフレームワークであるCalibPromptを紹介する。
CalibPromptは、ラベル付けされていないデータ構造の下で、慎重に設計されたキャリブレーション目標を持つ、学習可能なプロンプトの小さなセットを最適化する。
まず,スムーズな精度と予測モデル信頼度を一致させようとする正則化器について検討する。
第2に,マルチモーダルMed-VLMの信頼性評価における信頼性向上に向けて,テキスト特徴近接性を最大化する角分離損失を導入する。
公開された4つのMed-VLMと5つの多様な医用画像データセットに関する大規模な実験により、CalibPromptはクリーンな精度に大きな影響を及ぼすことなく、キャリブレーションを一貫して改善していることが明らかとなった。
私たちのコードはhttps://github.com/iabh1shekbasu/CalibPrompt.comで公開されています。
関連論文リスト
- On Calibration of Large Language Models: From Response To Capability [66.59139960234326]
大規模言語モデル(LLM)は汎用的な問題解決手段として広くデプロイされている。
本稿では,クエリ上でモデルが期待する精度を目標とするキャリブレーションを提案する。
我々の結果は、キャパシティ校正された信頼度がpass@$k$予測と推論予算割り当てを改善することを示している。
論文 参考訳(メタデータ) (2026-02-14T01:07:45Z) - Prompt4Trust: A Reinforcement Learning Prompt Augmentation Framework for Clinically-Aligned Confidence Calibration in Multimodal Large Language Models [1.4008409814572673]
Prompt4Trustは,MLLMにおける信頼度校正をターゲットとした即時強化のための,最初の強化学習フレームワークである。
従来のキャリブレーション技術とは異なり、Prompt4Trustは安全で信頼性の高い臨床診断に最も重要なキャリブレーションの側面を特に優先している。
実験では,より大きなMLLMに対してゼロショットの一般化が期待できることを示した。
論文 参考訳(メタデータ) (2025-07-12T13:21:10Z) - Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - Exposing and Mitigating Calibration Biases and Demographic Unfairness in MLLM Few-Shot In-Context Learning for Medical Image Classification [8.43909252072479]
マルチモーダル大言語モデル (MLLM) は、医療画像解析の文脈において、少数の文脈内学習を行う大きな可能性を秘めている。
医療画像分類のためのテキスト内学習におけるMLLMの予測と信頼性スコアの校正バイアスと人口統計学的不公平性に関する最初の調査を行った。
我々は、関連するバイアスを軽減するために、推論時キャリブレーション法であるCALINを紹介する。
論文 参考訳(メタデータ) (2025-06-29T15:37:17Z) - Average Calibration Losses for Reliable Uncertainty in Medical Image Segmentation [14.869379716339212]
医用画像セグメンテーションのためのディープニューラルネットワークは、しばしば過信され、信頼性と臨床的有用性の両方を損なう。
画像毎に計算可能な補助的損失として,L1平均誤差(mL1-ACE)の微分可能な定式化を提案する。
ソフトボンドの変種は、Diceとクロスエントロピー損失ベースラインよりもキャリブレーションの最大の改善をもたらすが、しばしばセグメンテーション性能を損なう。
論文 参考訳(メタデータ) (2025-06-04T13:32:07Z) - Object-Level Verbalized Confidence Calibration in Vision-Language Models via Semantic Perturbation [26.580361841501514]
視覚言語モデル(VLM)は様々なマルチモーダルタスクに優れるが、しばしばキャリブレーションに苦しむ。
この誤判定は、特にモデルが不正確または製造された情報を確実に提供した場合、ユーザーの信頼を損なう。
本稿では,文節摂動(CSP)フレームワークを新たに提案し,オブジェクト中心クエリの言語的信頼度を校正する手法を提案する。
論文 参考訳(メタデータ) (2025-04-21T04:01:22Z) - Enhancing Healthcare LLM Trust with Atypical Presentations Recalibration [20.049443396032423]
ブラックボックスの大規模言語モデル(LLM)は、様々な環境に徐々に展開されている。
LLMは、しばしば過剰な自信を示し、潜在的なリスクや誤った判断につながる。
本稿では,非定型的なプレゼンテーションを利用してモデルの信頼度を推定する新しい手法であるtextitAtypical presentations Recalibrationを提案する。
論文 参考訳(メタデータ) (2024-09-05T03:45:35Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - DOMINO: Domain-aware Model Calibration in Medical Image Segmentation [51.346121016559024]
現代のディープニューラルネットワークはキャリブレーションが不十分で、信頼性と信頼性を損なう。
本稿では,クラスラベル間のセマンティック・コンフューザビリティと階層的類似性を利用したドメイン認識モデルキャリブレーション手法であるDOMINOを提案する。
その結果,DOMINOを校正したディープニューラルネットワークは,頭部画像分割における非校正モデルや最先端形態計測法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-13T15:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。