論文の概要: COSMOS: Cross-Modality Unsupervised Domain Adaptation for 3D Medical
Image Segmentation based on Target-aware Domain Translation and Iterative
Self-Training
- arxiv url: http://arxiv.org/abs/2203.16557v1
- Date: Wed, 30 Mar 2022 18:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 16:14:57.413046
- Title: COSMOS: Cross-Modality Unsupervised Domain Adaptation for 3D Medical
Image Segmentation based on Target-aware Domain Translation and Iterative
Self-Training
- Title(参考訳): COSMOS:ターゲット認識ドメイン翻訳と反復自己評価に基づく3次元医用画像分割のためのクロスモーダル非教師付きドメイン適応
- Authors: Hyungseob Shin, Hyeongyu Kim, Sewon Kim, Yohan Jun, Taejoon Eo and
Dosik Hwang
- Abstract要約: 我々は,COSMOSという3次元医用画像セグメント作成のための,自己学習に基づく教師なしドメイン適応フレームワークを提案する。
我々のターゲット認識コントラスト変換ネットワークは、ソース領域の注釈付きT1 MRIを擬似T2 MRIに変換し、ターゲット領域でのセグメンテーショントレーニングを可能にする。
COSMOSは、第24回医用画像コンピューティングおよびコンピュータ支援介入国際会議(MICCAI 2021)と共同で開催されたクロスモダリティドメイン適応(crossMoDA)チャレンジで1textsuperscriptationで優勝した。
- 参考スコア(独自算出の注目度): 8.33996223844639
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in deep learning-based medical image segmentation studies
achieve nearly human-level performance when in fully supervised condition.
However, acquiring pixel-level expert annotations is extremely expensive and
laborious in medical imaging fields. Unsupervised domain adaptation can
alleviate this problem, which makes it possible to use annotated data in one
imaging modality to train a network that can successfully perform segmentation
on target imaging modality with no labels. In this work, we propose a
self-training based unsupervised domain adaptation framework for 3D medical
image segmentation named COSMOS and validate it with automatic segmentation of
Vestibular Schwannoma (VS) and cochlea on high-resolution T2 Magnetic Resonance
Images (MRI). Our target-aware contrast conversion network translates source
domain annotated T1 MRI to pseudo T2 MRI to enable segmentation training on
target domain, while preserving important anatomical features of interest in
the converted images. Iterative self-training is followed to incorporate
unlabeled data to training and incrementally improve the quality of
pseudo-labels, thereby leading to improved performance of segmentation. COSMOS
won the 1\textsuperscript{st} place in the Cross-Modality Domain Adaptation
(crossMoDA) challenge held in conjunction with the 24th International
Conference on Medical Image Computing and Computer Assisted Intervention
(MICCAI 2021). It achieves mean Dice score and Average Symmetric Surface
Distance of 0.871(0.063) and 0.437(0.270) for VS, and 0.842(0.020) and
0.152(0.030) for cochlea.
- Abstract(参考訳): 深層学習に基づく医用画像分割研究の最近の進歩は、完全に監視された状態においてほぼ人間レベルの性能を達成する。
しかし, 医用画像の分野では, ピクセルレベルの専門家アノテーションの取得は非常に高価であり, 手間がかかる。
教師なしのドメイン適応はこの問題を緩和し、1つの画像モダリティで注釈付きデータを使用して、ラベルなしでターゲット画像モダリティのセグメンテーションを成功させるネットワークを訓練することができる。
本研究では,COSMOSと命名された3次元医用画像セグメンテーションのための自己学習に基づく教師なし領域適応フレームワークを提案し,高分解能T2磁気共鳴画像(MRI)を用いた前庭神経腫瘍(VS)とコクランの自動セグメンテーションによる評価を行った。
提案ネットワークは,T1 MRI に付加したソース領域を擬似的 T2 MRI に変換して,対象領域におけるセグメンテーショントレーニングを実現するとともに,変換画像に対する重要な解剖学的特徴を保存する。
反復的な自己学習に続いて、ラベルのないデータをトレーニングに取り入れ、擬似ラベルの品質を段階的に改善することで、セグメンテーションのパフォーマンスが向上する。
COSMOSは、第24回医用画像コンピューティングおよびコンピュータ支援介入会議(MICCAI 2021)と共同で開催されたクロスモダリティドメイン適応(cross-Modality Domain Adaptation,crossMoDA)チャレンジで1\textsuperscript{st}の座を獲得した。
平均サイススコアと平均対称表面距離は、vsでは 0.871(0.063) と 0.437(0.270)、cochleaでは 0.842(0.020) と 0.152(0.030) である。
関連論文リスト
- DRL-STNet: Unsupervised Domain Adaptation for Cross-modality Medical Image Segmentation via Disentangled Representation Learning [14.846510957922114]
非教師なし領域適応(UDA)は、医用画像のセグメンテーション、特にクロスモダリティデータシナリオにおいて不可欠である。
本稿では, DRL-STNetについて述べる。
提案フレームワークは,FLAREチャレンジデータセットの腹部臓器セグメント化において,優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-26T23:30:40Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation
for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation [11.100048696665496]
教師なしドメイン適応(UDA)メソッドは、有望なクロスモダリティセグメンテーション性能を達成した。
本稿では,2つの重要な脳構造の自動分割のための,マルチスケールの自己組織化に基づくUDAフレームワークを提案する。
提案手法は,平均Diceスコアが83.8%,81.4%の有望なセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-03-28T08:55:00Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - C-MADA: Unsupervised Cross-Modality Adversarial Domain Adaptation
framework for medical Image Segmentation [0.8680676599607122]
医用画像セグメンテーションのための教師なしクロスモダリティ適応(C-MADA)フレームワークを提案する。
C-MADAは画像と特徴レベルの適応を逐次的に実装する。
脳MRIのセグメンテーションのタスクでテストされ、競争力のある結果を得る。
論文 参考訳(メタデータ) (2021-10-29T14:34:33Z) - Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular
Schwannoma and Cochlea with Data Augmentation and Model Ensemble [4.942327155020771]
本稿では,前庭神経新生と子牛を識別する教師なし学習フレームワークを提案する。
本フレームワークは,T1強調MRI(ceT1-w)とそのラベルからの情報を活用し,対象領域にラベルが存在しないT2強調MRIのセグメンテーションを生成する。
提案手法は,VS と cochlea のそれぞれの平均値 0.7930 と 0.7432 で,有望なセグメンテーションの構築と生成が容易である。
論文 参考訳(メタデータ) (2021-09-24T20:10:05Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。