論文の概要: Tell2Adapt: A Unified Framework for Source Free Unsupervised Domain Adaptation via Vision Foundation Model
- arxiv url: http://arxiv.org/abs/2603.05012v1
- Date: Thu, 05 Mar 2026 10:01:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.178126
- Title: Tell2Adapt: A Unified Framework for Source Free Unsupervised Domain Adaptation via Vision Foundation Model
- Title(参考訳): Tell2Adapt: Vision Foundation Modelによるオープンソースフリーな非教師なしドメイン適応のための統一フレームワーク
- Authors: Yulong Shi, Shijie Li, Ziyi Li, Lin Qi,
- Abstract要約: 本稿では、Vision Foundation Model(VFM)の膨大な一般化可能な知識を活用する新しいSFUDAフレームワークであるTell2Adaptを紹介する。
臨床的信頼性を保証するために、このフレームワークはVisual Plausibility Refinement (VPR)を組み込んでいる。
これまでに最も広範なSFUDA評価を行い、10のドメイン適応方向と22の解剖学的目標にまたがってフレームワークを検証する。
- 参考スコア(独自算出の注目度): 12.360559311495415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source Free Unsupervised Domain Adaptation (SFUDA) is critical for deploying deep learning models across diverse clinical settings. However, existing methods are typically designed for low-gap, specific domain shifts and cannot generalize into a unified, multi-modalities, and multi-target framework, which presents a major barrier to real-world application. To overcome this issue, we introduce Tell2Adapt, a novel SFUDA framework that harnesses the vast, generalizable knowledge of the Vision Foundation Model (VFM). Our approach ensures high-fidelity VFM prompts through Context-Aware Prompts Regularization (CAPR), which robustly translates varied text prompts into canonical instructions. This enables the generation of high-quality pseudo-labels for efficiently adapting the lightweight student model to target domain. To guarantee clinical reliability, the framework incorporates Visual Plausibility Refinement (VPR), which leverages the VFM's anatomical knowledge to re-ground the adapted model's predictions in target image's low-level visual features, effectively removing noise and false positives. We conduct one of the most extensive SFUDA evaluations to date, validating our framework across 10 domain adaptation directions and 22 anatomical targets, including brain, cardiac, polyp, and abdominal targets. Our results demonstrate that Tell2Adapt consistently outperforms existing approaches, achieving SOTA for a unified SFUDA framework in medical image segmentation. Code are avaliable at https://github.com/derekshiii/Tell2Adapt.
- Abstract(参考訳): Source Free Unsupervised Domain Adaptation (SFUDA)は、さまざまな臨床環境にわたってディープラーニングモデルをデプロイするために重要である。
しかし、既存の手法は一般に低ギャップ、特定のドメインシフトのために設計されており、現実のアプリケーションにとって大きな障壁となる統一されたマルチモダリティやマルチターゲットフレームワークに一般化できない。
本稿では,VFM(Vision Foundation Model)の膨大な一般知識を活用する新しいSFUDAフレームワークであるTell2Adaptを紹介する。
提案手法は,高忠実度 VFM プロンプトを CAPR (Context-Aware Prompts Regularization) を通じて保証する。
これにより、軽量な学生モデルをターゲットドメインに効率的に適応するための高品質な擬似ラベルの生成が可能になる。
臨床的信頼性を保証するため、VPR(Visual Plausibility Refinement)が組み込まれており、VFMの解剖学的知識を活用して、ターゲット画像の低レベルの視覚的特徴に適応モデルの予測を再定義し、ノイズや偽陽性を効果的に除去する。
これまでに最も広範囲にわたるSFUDA評価を行い,脳,心臓,ポリープ,腹部のターゲットを含む10領域適応方向と22の解剖学的対象のフレームワークを検証した。
以上の結果から,Tell2Adaptは医用画像セグメンテーションにおける統一SFUDAフレームワークのSOTAを達成し,既存のアプローチを一貫して上回ることを示す。
code is avaliable at https://github.com/derekshiii/Tell2Adapt。
関連論文リスト
- One Language-Free Foundation Model Is Enough for Universal Vision Anomaly Detection [65.11602552904456]
Universal Visual Anomaly Detection (AD) は、オープンかつダイナミックなシナリオに向けて、異常画像とセグメント異常領域を識別することを目的としている。
現在の手法は、複雑なプロンプトエンジニアリング、精巧な適応モジュール、そして挑戦的な訓練戦略に苦しむことが多い。
本稿では,Universal Vision Anomaly Detection(UniADet)のための,恥ずかしいほどシンプルで汎用的で効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-09T06:05:18Z) - XBench: A Comprehensive Benchmark for Visual-Language Explanations in Chest Radiography [6.447908430647854]
胸部X線におけるクロスモーダル解釈性を評価するための最初の体系的ベンチマークを示す。
我々は,クロスアテンションと類似性に基づくローカライズマップを用いた視覚的説明を生成する。
複数の病理組織を横断する放射線診断領域とのアライメントを定量的に評価した。
論文 参考訳(メタデータ) (2025-10-22T13:52:19Z) - DuPLUS: Dual-Prompt Vision-Language Framework for Universal Medical Image Segmentation and Prognosis [5.494301428436596]
効率的なマルチモーダル医療画像解析のためのディープラーニングフレームワークであるDuPLUSを紹介する。
DuPLUSは、階層的セマンティックプロンプトを利用して分析タスクのきめ細かい制御を行う新しい視覚言語フレームワークを導入した。
セグメンテーションのために、DuPLUSは、30以上の臓器と腫瘍タイプを含む10の異なる医療データセットである3つの画像モダリティを一般化することができる。
論文 参考訳(メタデータ) (2025-10-03T20:01:00Z) - U-DFA: A Unified DINOv2-Unet with Dual Fusion Attention for Multi-Dataset Medical Segmentation [1.1724961392643483]
U-DFAはDINOv2-Unetエンコーダとデコーダを統一したアーキテクチャで,新たにLGFA(Local-Global Fusion Adapter)を統合し,セグメンテーション性能を向上させる。
本手法は,トレーニング可能なモデルパラメータの33%に過ぎず,Synapse と ACDC のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-10-01T07:06:49Z) - Decoupling Clinical and Class-Agnostic Features for Reliable Few-Shot Adaptation under Shift [12.373281238541296]
医療ビジョン言語モデル(VLM)は、臨床診断支援を約束するが、分布シフトによる信頼性は、安全なデプロイメントにとって大きな関心事である。
そこで我々はDRiFtを提案する。DRiFtは機能分離フレームワークで、臨床的に関連する信号をタスク非依存のノイズから明確に分離する。
提案手法は,従来のプロンプトベースの手法に比べて,Top-1精度+11.4%,Macro-F1+3.3%向上する。
論文 参考訳(メタデータ) (2025-09-11T12:26:57Z) - NEARL-CLIP: Interacted Query Adaptation with Orthogonal Regularization for Medical Vision-Language Understanding [51.63264715941068]
textbfNEARL-CLIP (iunderlineNteracted quunderlineEry underlineAdaptation with ounderlineRthogonaunderlineL regularization)は、VLMベースの新しい相互モダリティ相互作用フレームワークである。
論文 参考訳(メタデータ) (2025-08-06T05:44:01Z) - Crane: Context-Guided Prompt Learning and Attention Refinement for Zero-Shot Anomaly Detection [50.343419243749054]
異常検出は、医学診断や工業的欠陥検出などの分野において重要である。
CLIPの粗粒化画像テキストアライメントは、微粒化異常に対する局所化と検出性能を制限する。
クレーンは最先端のZSADを2%から28%に改善し、画像レベルとピクセルレベルの両方で、推論速度では競争力を維持している。
論文 参考訳(メタデータ) (2025-04-15T10:42:25Z) - Knowledge-grounded Adaptation Strategy for Vision-language Models: Building Unique Case-set for Screening Mammograms for Residents Training [5.819704618007536]
自然画像とテキストペアに事前訓練された視覚言語モデル(VLM)は、医学的文脈に適用した場合、大きな障壁となる。
本稿では, 選択的サンプリング法と強陰性マイニング法を用いて, VLMを医療領域に適応させるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T04:04:36Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Source-Free Domain Adaptation for Medical Image Segmentation via
Prototype-Anchored Feature Alignment and Contrastive Learning [57.43322536718131]
医用画像セグメンテーションのための2段階のソースフリードメイン適応(SFDA)フレームワークを提案する。
プロトタイプアンコールされた特徴アライメントの段階では,まず,事前学習した画素ワイド分類器の重みを原プロトタイプとして利用する。
そこで,本研究では,目標となる特徴とクラスプロトタイプとの整合性を期待するコストを最小化し,双方向輸送を導入する。
論文 参考訳(メタデータ) (2023-07-19T06:07:12Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。