論文の概要: Unsupervised Domain Adaptation with Variational Approximation for
Cardiac Segmentation
- arxiv url: http://arxiv.org/abs/2106.08752v1
- Date: Wed, 16 Jun 2021 13:00:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 01:47:48.117700
- Title: Unsupervised Domain Adaptation with Variational Approximation for
Cardiac Segmentation
- Title(参考訳): 変分近似を用いた心筋分画の教師なし領域適応
- Authors: Fuping Wu and Xiahai Zhuang
- Abstract要約: 非教師なし領域適応は、医用画像セグメンテーションに有用である。
両ドメインの潜在機能を共通かつパラメータ化された変分形式に駆動する新しいフレームワークを提案する。
これは、変分オートエンコーダ(VAE)とこの変分近似の正規化に基づく2つのネットワークによって実現される。
- 参考スコア(独自算出の注目度): 15.2292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised domain adaptation is useful in medical image segmentation.
Particularly, when ground truths of the target images are not available, domain
adaptation can train a target-specific model by utilizing the existing labeled
images from other modalities. Most of the reported works mapped images of both
the source and target domains into a common latent feature space, and then
reduced their discrepancy either implicitly with adversarial training or
explicitly by directly minimizing a discrepancy metric. In this work, we
propose a new framework, where the latent features of both domains are driven
towards a common and parameterized variational form, whose conditional
distribution given the image is Gaussian. This is achieved by two networks
based on variational auto-encoders (VAEs) and a regularization for this
variational approximation. Both of the VAEs, each for one domain, contain a
segmentation module, where the source segmentation is trained in a supervised
manner, while the target one is trained unsupervisedly. We validated the
proposed domain adaptation method using two cardiac segmentation tasks, i.e.,
the cross-modality (CT and MR) whole heart segmentation and the cross-sequence
cardiac MR segmentation. Results show that the proposed method achieved better
accuracies compared to two state-of-the-art approaches and demonstrated good
potential for cardiac segmentation. Furthermore, the proposed explicit
regularization was shown to be effective and efficient in narrowing down the
distribution gap between domains, which is useful for unsupervised domain
adaptation. Our code and data has been released via
https://zmiclab.github.io/projects.html.
- Abstract(参考訳): 教師なし領域適応は医用画像分割に有用である。
特に、対象画像の基礎的真実が得られない場合、ドメイン適応は他のモダリティから既存のラベル付き画像を利用することで、ターゲット固有のモデルを訓練することができる。
報告されたほとんどの研究は、ソースドメインとターゲットドメインの両方のイメージを共通の潜在的特徴空間にマッピングし、敵のトレーニングで暗黙的に、あるいは直接的に、一致度を最小化することで、それらの相違を減らした。
本研究では,画像に与えられた条件分布がガウス型である2つの領域の潜在的特徴を共通かつパラメータ化された変分形式へと駆動する新しい枠組みを提案する。
これは、変分オートエンコーダ(VAE)とこの変分近似の正規化に基づく2つのネットワークによって実現される。
それぞれのVAEは、それぞれ1つのドメインに対してセグメンテーションモジュールを含み、ソースセグメンテーションは教師なしの方法でトレーニングされ、ターゲットのセグメンテーションは教師なしでトレーニングされる。
提案する領域適応法を, クロスモダリティ(ct, mr)全心セグメンテーションとクロスシークエンス心筋mrセグメンテーションという2つの心臓セグメンテーションタスクを用いて検証した。
その結果, 提案手法は2つの最先端アプローチと比較して精度が良く, 心臓分節の可能性が示唆された。
さらに,提案した明示的正規化は,教師なし領域適応に有用な領域間の分布ギャップを狭めるのに有効かつ効果的であることを示した。
私たちのコードとデータはhttps://zmiclab.github.io/projects.htmlでリリースされています。
関連論文リスト
- Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Causality-inspired Single-source Domain Generalization for Medical Image
Segmentation [12.697945585457441]
合成ドメインシフトトレーニング例にセグメンテーションモデルを公開するための簡単なデータ拡張手法を提案する。
具体的には,1)画像強度とテクスチャの相違に頑健な深層モデルを実現するために,ランダムに重み付けされた浅層ネットワーク群を用いる。
我々は、ネットワークが予測を行うためのドメイン固有の手がかりとして捉えうる画像内のオブジェクト間の急激な相関を取り除き、未知のドメインに分解する可能性がある。
論文 参考訳(メタデータ) (2021-11-24T14:45:17Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Optimal Latent Vector Alignment for Unsupervised Domain Adaptation in
Medical Image Segmentation [1.2183405753834562]
OLVAは、変分オートエンコーダ(VAE)と最適輸送(OT)理論に基づく、軽量な教師なしドメイン適応手法である。
以上の結果より, 同時生成訓練に比べて12.5%の利得が得られ, 顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-06-15T14:41:09Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation [50.621269117524925]
ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
画素ワイド表示アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
複数のベンチマークでSDCAを評価し、既存のアルゴリズムを大幅に改善します。
論文 参考訳(メタデータ) (2021-05-11T13:21:25Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Adapt Everywhere: Unsupervised Adaptation of Point-Clouds and Entropy
Minimisation for Multi-modal Cardiac Image Segmentation [10.417009344120917]
マルチモーダル心臓画像分割のための新しいUDA法を提案する。
提案手法は、逆学習に基づいて、異なる空間におけるソースとターゲットドメイン間のネットワーク特徴を適応する。
本手法はannotated source domainからunannotated target domainへの適応により2つの心データセットで検証した。
論文 参考訳(メタデータ) (2021-03-15T08:59:44Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。