論文の概要: TCSA-UDA: Text-Driven Cross-Semantic Alignment for Unsupervised Domain Adaptation in Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2511.05782v1
- Date: Sat, 08 Nov 2025 00:56:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.576262
- Title: TCSA-UDA: Text-Driven Cross-Semantic Alignment for Unsupervised Domain Adaptation in Medical Image Segmentation
- Title(参考訳): TCSA-UDA: 医用画像分割における教師なし領域適応のためのテキスト駆動型クロスセマンティックアライメント
- Authors: Lalit Maurya, Honghai Liu, Reyer Zwiggelaar,
- Abstract要約: 視覚表現学習を支援するためのテキスト駆動型クロスセマンティックアライメントフレームワークを提案する。
我々のフレームワークはドメインシフトを大幅に減らし、最先端のUDAメソッドを一貫して上回ります。
- 参考スコア(独自算出の注目度): 10.074858409073292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation for medical image segmentation remains a significant challenge due to substantial domain shifts across imaging modalities, such as CT and MRI. While recent vision-language representation learning methods have shown promise, their potential in UDA segmentation tasks remains underexplored. To address this gap, we propose TCSA-UDA, a Text-driven Cross-Semantic Alignment framework that leverages domain-invariant textual class descriptions to guide visual representation learning. Our approach introduces a vision-language covariance cosine loss to directly align image encoder features with inter-class textual semantic relations, encouraging semantically meaningful and modality-invariant feature representations. Additionally, we incorporate a prototype alignment module that aligns class-wise pixel-level feature distributions across domains using high-level semantic prototypes. This mitigates residual category-level discrepancies and enhances cross-modal consistency. Extensive experiments on challenging cross-modality cardiac, abdominal, and brain tumor segmentation benchmarks demonstrate that our TCSA-UDA framework significantly reduces domain shift and consistently outperforms state-of-the-art UDA methods, establishing a new paradigm for integrating language-driven semantics into domain-adaptive medical image analysis.
- Abstract(参考訳): 医用画像分割のための教師なし領域適応は、CTやMRIなどの画像モダリティの領域シフトがかなり大きいため、依然として大きな課題である。
近年の視覚言語表現学習手法は有望であるが, UDAセグメンテーションタスクにおけるその可能性はまだ未検討である。
このギャップに対処するために,ドメイン不変のテキストクラス記述を活用して視覚表現学習を支援するテキスト駆動型クロスセマンティックアライメントフレームワークTCSA-UDAを提案する。
提案手法では,画像エンコーダの特徴とクラス間の意味的関係を直接整合させ,意味論的・モダリティ的不変な特徴表現を奨励する。
さらに、高レベルのセマンティックプロトタイプを用いて、ドメイン間のクラスワイド画素レベルの特徴分布を整列するプロトタイプアライメントモジュールを組み込んだ。
このことは、残留するカテゴリレベルの不一致を緩和し、相互の整合性を高める。
心臓,腹部,脳腫瘍のセグメンテーションのベンチマークにおいて,我々のTSA-UDAフレームワークはドメインシフトを著しく低減し,最先端のUDA手法より一貫して優れており,言語駆動のセマンティクスをドメイン適応型医用画像解析に統合するための新たなパラダイムが確立されている。
関連論文リスト
- Language-guided Medical Image Segmentation with Target-informed Multi-level Contrastive Alignments [7.9714765680840625]
ターゲット型マルチレベルコントラストアライメント(TMCA)を用いた言語誘導セグメンテーションネットワークを提案する。
TMCAは、言語誘導セグメンテーションにおけるパターンギャップを橋渡しするために、ターゲット・インフォームド・クロスモダリティアライメントときめ細かいテキストガイダンスを可能にする。
論文 参考訳(メタデータ) (2024-12-18T06:19:03Z) - SMC-UDA: Structure-Modal Constraint for Unsupervised Cross-Domain Renal
Segmentation [100.86339246424541]
本稿では、識別パラダイムに基づく新しい構造モード制約(SMC) UDA フレームワークを提案し、ドメイン間のブリッジとしてエッジ構造を導入する。
構造に制約のある自己学習とプログレッシブROIでは,エッジの3次元空間構造を見極めることで腎臓を分節する。
実験の結果,提案するSMC-UDAの一般化は良好であり,生成的UDA法よりも優れていた。
論文 参考訳(メタデータ) (2023-06-14T02:57:23Z) - MSCDA: Multi-level Semantic-guided Contrast Improves Unsupervised Domain
Adaptation for Breast MRI Segmentation in Small Datasets [5.272836235045653]
マルチレベルセマンティック・ガイド・コントラスト・ドメイン・アダプティブ・フレームワークを提案する。
我々のアプローチは、ドメイン間の特徴表現を整合させるために、対照的な学習を伴う自己学習を取り入れている。
特に,ピクセル・ツー・ピクセル,ピクセル・ツー・セントロイド,セントロイド・ツー・セントロイドのコントラストを取り入れることで,コントラストの損失を増大させる。
論文 参考訳(メタデータ) (2023-01-04T19:16:55Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - SGDR: Semantic-guided Disentangled Representation for Unsupervised
Cross-modality Medical Image Segmentation [5.090366802287405]
本稿では,セグメンテーションタスクにおいて意味論的に意味のある特徴を正確に表現するために,意味誘導非絡み合い表現(SGDR)と呼ばれる新しいフレームワークを提案する。
提案手法を2つの公開データセットで検証し, 実験結果から, 2つの評価指標における工法の現状を, 有意差で比較した。
論文 参考訳(メタデータ) (2022-03-26T08:31:00Z) - C-MADA: Unsupervised Cross-Modality Adversarial Domain Adaptation
framework for medical Image Segmentation [0.8680676599607122]
医用画像セグメンテーションのための教師なしクロスモダリティ適応(C-MADA)フレームワークを提案する。
C-MADAは画像と特徴レベルの適応を逐次的に実装する。
脳MRIのセグメンテーションのタスクでテストされ、競争力のある結果を得る。
論文 参考訳(メタデータ) (2021-10-29T14:34:33Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。