論文の概要: LATA: Laplacian-Assisted Transductive Adaptation for Conformal Uncertainty in Medical VLMs
- arxiv url: http://arxiv.org/abs/2602.17535v1
- Date: Thu, 19 Feb 2026 16:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.218131
- Title: LATA: Laplacian-Assisted Transductive Adaptation for Conformal Uncertainty in Medical VLMs
- Title(参考訳): LATA(Laplacian-Assisted Transductive Adaptation for Conformal Uncertainity in Medical VLMs)
- Authors: Behzad Bozorgtabar, Dwarikanath Mahapatra, Sudipta Roy, Muzammal Naseer, Imran Razzak, Zongyuan Ge,
- Abstract要約: 医用視覚言語モデル(VLM)は医用画像の強力なゼロショット認識器である。
本研究では,ラプラシアン支援トランスダクティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ・アダプティブ(texttttextbfLATA,ラプラシアン支援トランスダクティブ・アダプティブ・アダプティブ・アダプティブ)を提案する。
texttttextbfLATAは交換性を損なうことなくゼロショット予測をシャープにする。
- 参考スコア(独自算出の注目度): 61.06744611795341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical vision-language models (VLMs) are strong zero-shot recognizers for medical imaging, but their reliability under domain shift hinges on calibrated uncertainty with guarantees. Split conformal prediction (SCP) offers finite-sample coverage, yet prediction sets often become large (low efficiency) and class-wise coverage unbalanced-high class-conditioned coverage gap (CCV), especially in few-shot, imbalanced regimes; moreover, naively adapting to calibration labels breaks exchangeability and voids guarantees. We propose \texttt{\textbf{LATA}} (Laplacian-Assisted Transductive Adaptation), a \textit{training- and label-free} refinement that operates on the joint calibration and test pool by smoothing zero-shot probabilities over an image-image k-NN graph using a small number of CCCP mean-field updates, preserving SCP validity via a deterministic transform. We further introduce a \textit{failure-aware} conformal score that plugs into the vision-language uncertainty (ViLU) framework, providing instance-level difficulty and label plausibility to improve prediction set efficiency and class-wise balance at fixed coverage. \texttt{\textbf{LATA}} is black-box (no VLM updates), compute-light (windowed transduction, no backprop), and includes an optional prior knob that can run strictly label-free or, if desired, in a label-informed variant using calibration marginals once. Across \textbf{three} medical VLMs and \textbf{nine} downstream tasks, \texttt{\textbf{LATA}} consistently reduces set size and CCV while matching or tightening target coverage, outperforming prior transductive baselines and narrowing the gap to label-using methods, while using far less compute. Comprehensive ablations and qualitative analyses show that \texttt{\textbf{LATA}} sharpens zero-shot predictions without compromising exchangeability.
- Abstract(参考訳): 医用視覚言語モデル(VLM)は、医用画像の強力なゼロショット認識器であるが、領域シフトのヒンジの下での信頼性は、保証付き不確実性を校正する。
スプリット共形予測(SCP)は有限サンプルのカバレッジを提供するが、予測セットは大きな(低効率)かつクラスワイドの非平衡なクラス条件付きカバレッジギャップ(CCV)となり、特に少数ショットで不均衡なレシエーションでは、キャリブレーションラベルに鼻で適応することで、交換可能性や無効化の保証を損なう。
画像画像のk-NNグラフ上でゼロショット確率を平滑化し,少数のCCCP平均場更新を施し,決定論的変換によるSCPの有効性を保ちながら,共同キャリブレーションとテストプール上で動作させる,‘texttt{\textbf{LATA}}(ラプラシアン補助トランスダクティブ・アダプティブ・アダプティブ・アダプティブ)’を提案する。
さらに,視覚言語不確実性(ViLU)フレームワークに接続し,予測セットの効率向上と,固定範囲でのクラス単位のバランス向上のために,インスタンスレベルの難易度とラベルの妥当性を提供する。
texttt{\textbf{LATA}} はブラックボックス(VLM更新なし)、コンピュートライト(ウインドウドトランスダクションなし、バックプロップなし)であり、厳密なラベルフリーまたは望めば、キャリブレーション限界を使ったラベル付き変種で実行できるオプションの事前ノブを含んでいる。
医療用 VLM および textbf{nine} 下流タスク全体において、 \texttt{\textbf{LATA}} は、設定サイズと CCV を一貫して削減し、目標カバレッジをマッチングまたは強化し、事前のトランスダクティブベースラインを上回り、ラベルの使用方法とのギャップを狭めるとともに、はるかに少ない計算を使用する。
包括的アブレーションと定性的分析は、交換性を損なうことなくゼロショット予測を鋭くすることを示した。
関連論文リスト
- Coverage Guarantees for Pseudo-Calibrated Conformal Prediction under Distribution Shift [1.5861469511290378]
コンフォーマル予測は、データ分散がシフトした場合の限界カバレッジを保証する。
この性能損失に対処するためのツールとして擬似校正を用いた場合の分析を行う。
ハードな擬似ラベルとランダムなラベルを補間するソース調整擬似校正アルゴリズムを提案する。
論文 参考訳(メタデータ) (2026-02-16T16:48:39Z) - Conditional Coverage Diagnostics for Conformal Prediction [47.93989136542648]
条件付きカバレッジ推定が分類問題であることを示す。
得られたメトリクスの族をターゲットカバレッジ(ERT)の過剰なリスクと呼びます。
ERTのオープンソースパッケージと、以前の条件付きカバレッジメトリクスをリリースしています。
論文 参考訳(メタデータ) (2025-12-12T18:47:39Z) - Enhancing CLIP Robustness via Cross-Modality Alignment [54.01929554563447]
視覚言語モデルのための最適なトランスポートベースフレームワークであるクロスモダリティアライメントを提案する。
COLAは、グローバルな画像テキストアライメントと特徴空間における局所的な構造的一貫性を復元する。
COLAはトレーニングフリーで、既存の微調整モデルと互換性がある。
論文 参考訳(メタデータ) (2025-10-28T03:47:44Z) - Unsupervised Conformal Inference: Bootstrapping and Alignment to Control LLM Uncertainty [49.19257648205146]
生成のための教師なし共形推論フレームワークを提案する。
我々のゲートは、分断されたUPPよりも厳密で安定した閾値を提供する。
その結果は、ラベルのない、API互換の、テスト時間フィルタリングのゲートになる。
論文 参考訳(メタデータ) (2025-09-26T23:40:47Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Semi-Supervised Conformal Prediction With Unlabeled Nonconformity Score [19.15617038007535]
コンフォーマル予測(CP)は不確実性定量化のための強力なフレームワークである。
ラベル付きデータがしばしば制限される現実世界のアプリケーションでは、標準CPはカバレッジの偏りを生じさせ、非常に大きな予測セットを出力する。
ラベル付きデータとラベルなしデータの両方を利用してキャリブレーションを行うSemiCPを提案する。
論文 参考訳(メタデータ) (2025-05-27T12:57:44Z) - Conformal Uncertainty Indicator for Continual Test-Time Adaptation [16.248749460383227]
連続テスト時間適応(CTTA)のための整形不確かさ指標(CUI)を提案する。
我々は、コンフォーマル予測(CP)を利用して、特定のカバレッジ確率を持つ真のラベルを含む予測セットを生成する。
実験により,CUIが不確かさを効果的に推定し,既存のCTTA法にまたがる適応性能を向上させることが確認された。
論文 参考訳(メタデータ) (2025-02-05T08:47:18Z) - Approximate Conditional Coverage via Neural Model Approximations [0.030458514384586396]
実験的に信頼性の高い近似条件付きカバレッジを得るためのデータ駆動手法を解析する。
我々は、限界範囲のカバレッジ保証を持つ分割型代替案で、実質的な(そして、そうでない)アンダーカバーの可能性を実証する。
論文 参考訳(メタデータ) (2022-05-28T02:59:05Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。