論文の概要: Reliable Source Approximation: Source-Free Unsupervised Domain Adaptation for Vestibular Schwannoma MRI Segmentation
- arxiv url: http://arxiv.org/abs/2405.16102v1
- Date: Sat, 25 May 2024 07:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 01:00:23.559197
- Title: Reliable Source Approximation: Source-Free Unsupervised Domain Adaptation for Vestibular Schwannoma MRI Segmentation
- Title(参考訳): 根治的ソース近似:前庭神経癌MRIにおけるソースフリー非教師なし領域適応
- Authors: Hongye Zeng, Ke Zou, Zhihao Chen, Rui Zheng, Huazhu Fu,
- Abstract要約: Source-Free Unsupervised Domain Adaptation (SFUDA)は、最近、医療画像領域適応に焦点をあてている。
本稿では、ソースライクで構造保存された画像を対象領域から生成できるReliable Source Approximation (RSA)を提案する。
RSAは、他の最先端のSFUDAメソッドよりも一貫してドメイン適応性能を改善している。
- 参考スコア(独自算出の注目度): 38.529892690603006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Source-Free Unsupervised Domain Adaptation (SFUDA) has recently become a focus in the medical image domain adaptation, as it only utilizes the source model and does not require annotated target data. However, current SFUDA approaches cannot tackle the complex segmentation task across different MRI sequences, such as the vestibular schwannoma segmentation. To address this problem, we proposed Reliable Source Approximation (RSA), which can generate source-like and structure-preserved images from the target domain for updating model parameters and adapting domain shifts. Specifically, RSA deploys a conditional diffusion model to generate multiple source-like images under the guidance of varying edges of one target image. An uncertainty estimation module is then introduced to predict and refine reliable pseudo labels of generated images, and the prediction consistency is developed to select the most reliable generations. Subsequently, all reliable generated images and their pseudo labels are utilized to update the model. Our RSA is validated on vestibular schwannoma segmentation across multi-modality MRI. The experimental results demonstrate that RSA consistently improves domain adaptation performance over other state-of-the-art SFUDA methods. Code is available at https://github.com/zenghy96/Reliable-Source-Approximation.
- Abstract(参考訳): Source-Free Unsupervised Domain Adaptation (SFUDA)は、最近、ソースモデルのみを使用し、注釈付きターゲットデータを必要としないため、医療画像領域適応に重点を置いている。
しかし、現在のSFUDAのアプローチでは、前庭性スワンノーマのセグメンテーションなど、MRIシークエンスにまたがる複雑なセグメンテーションタスクには対応できない。
この問題に対処するため、モデルパラメータの更新とドメインシフトの適応のために、ターゲットドメインからソースライクで構造保存された画像を生成するReliable Source Approximation (RSA)を提案する。
具体的には、RSAは条件付き拡散モデルをデプロイし、1つのターゲット画像の異なるエッジのガイダンスの下で複数のソースライクな画像を生成する。
次に、生成した画像の信頼性の高い擬似ラベルを予測・洗練するために不確実性推定モジュールを導入し、最も信頼性の高い世代を選択するために予測一貫性を開発する。
その後、信頼できる生成画像とその擬似ラベルを使用してモデルを更新する。
RSAは多品位MRIで前庭性swannoma segmentationの診断に有用であった。
実験の結果、RSAは他の最先端のSFUDA法よりもドメイン適応性能が一貫して向上していることが示されている。
コードはhttps://github.com/zenghy96/Reliable-Source-Approximationで入手できる。
関連論文リスト
- DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - DG-TTA: Out-of-domain medical image segmentation through Domain Generalization and Test-Time Adaptation [43.842694540544194]
本稿では、ドメインの一般化とテスト時間適応を組み合わせることで、未確認対象領域で事前学習したモデルを再利用するための非常に効果的なアプローチを提案する。
本手法は,事前訓練した全身CTモデルと組み合わせることで,MR画像を高精度に分割できることを実証する。
論文 参考訳(メタデータ) (2023-12-11T10:26:21Z) - AdAM: Few-Shot Image Generation via Adaptation-Aware Kernel Modulation [71.58154388819887]
F SIG(Few-shot Image Generation)は、少数のトレーニングサンプル(例:10)が与えられた新しい多様な画像を生成することを目的としている。
最近の研究は、大規模ソースドメインで事前訓練されたGANを活用し、ターゲットドメインに適応することで、F SIGに対処している。
本稿では、異なるソース・ターゲット領域近傍の一般F SIGに対してAdaptation-Aware kernel Modulation (AdAM)を提案する。
論文 参考訳(メタデータ) (2023-07-04T03:56:43Z) - Uncertainty-Aware Source-Free Adaptive Image Super-Resolution with Wavelet Augmentation Transformer [60.31021888394358]
Unsupervised Domain Adaptation (UDA)は、現実世界の超解像(SR)における領域ギャップ問題に効果的に対処できる
本稿では,画像SR(SODA-SR)のためのSOurce-free Domain Adaptationフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-31T03:14:44Z) - SFHarmony: Source Free Domain Adaptation for Distributed Neuroimaging
Analysis [2.371982686172067]
異なるMRIスキャナーは、異なる特徴を持つ画像を生成し、調和問題として知られる領域シフトをもたらす」。
本研究では、これらの障壁を克服するために、SFHarmony法(Unsupervised Source-Free Domain Adaptation, SFDA)を提案する。
我々の手法は、さまざまな現実的なデータシナリオにおいて、既存のSFDAアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-03-28T13:35:10Z) - ProSFDA: Prompt Learning based Source-free Domain Adaptation for Medical
Image Segmentation [21.079667938055668]
医用画像分割のためのtextbfProSFDA (textbfProSFDA) 法を提案する。
以上の結果から,提案したProSFDA法は,他のSFDA法よりも優れており,UDA法と同等であることが明らかとなった。
論文 参考訳(メタデータ) (2022-11-21T14:57:04Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Adapt Everywhere: Unsupervised Adaptation of Point-Clouds and Entropy
Minimisation for Multi-modal Cardiac Image Segmentation [10.417009344120917]
マルチモーダル心臓画像分割のための新しいUDA法を提案する。
提案手法は、逆学習に基づいて、異なる空間におけるソースとターゲットドメイン間のネットワーク特徴を適応する。
本手法はannotated source domainからunannotated target domainへの適応により2つの心データセットで検証した。
論文 参考訳(メタデータ) (2021-03-15T08:59:44Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。