論文の概要: Enhancing Data Diversity for Self-training Based Unsupervised
Cross-modality Vestibular Schwannoma and Cochlea Segmentation
- arxiv url: http://arxiv.org/abs/2209.11879v1
- Date: Fri, 23 Sep 2022 22:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:56:05.163606
- Title: Enhancing Data Diversity for Self-training Based Unsupervised
Cross-modality Vestibular Schwannoma and Cochlea Segmentation
- Title(参考訳): 自己学習に基づく非教師付きクロスモーダル前庭腺腫とコチェリーセグメンテーションのためのデータの多様性向上
- Authors: Han Liu, Yubo Fan, Benoit M. Dawant
- Abstract要約: 教師なし領域適応設定におけるVSとcochleaセグメンテーションのアプローチを提案する。
まず、合成データの多様性を高めるために、クロスサイト・クロスモーダルな画像翻訳戦略を開発する。
そこで,ルールベースのオフライン拡張手法を考案し,ドメインギャップを最小化する。
最後に,自己学習による自己構成セグメンテーションフレームワークを採用し,最終的な結果を得た。
- 参考スコア(独自算出の注目度): 7.327638441664658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic segmentation of vestibular schwannoma (VS) and the cochlea from
magnetic resonance imaging (MRI) can facilitate VS treatment planning.
Unsupervised segmentation methods have shown promising results without
requiring the time-consuming and laborious manual labeling process. In this
paper, we present an approach for VS and cochlea segmentation in an
unsupervised domain adaptation setting. Specifically, we first develop a
cross-site cross-modality unpaired image translation strategy to enrich the
diversity of the synthesized data. Then, we devise a rule-based offline
augmentation technique to further minimize the domain gap. Lastly, we adopt a
self-configuring segmentation framework empowered by self-training to obtain
the final results. On the CrossMoDA 2022 validation leaderboard, our method has
achieved competitive VS and cochlea segmentation performance with mean dice
scores of 0.8178 $\pm$ 0.0803 and 0.8433 $\pm$ 0.0293, respectively.
- Abstract(参考訳): 磁気共鳴画像(MRI)による前庭神経根腫(VS)と後頭葉の自動分離は、VS治療計画を容易にする。
教師なしセグメンテーション法は、時間と手間のかかる手動ラベリングプロセスを必要とせず、有望な結果を示している。
本稿では,教師なし領域適応設定において,vs と cochlea のセグメンテーションを行う手法を提案する。
具体的には,まず,合成データの多様性を高めるために,クロスサイト・クロスモダリティ・アンペア画像翻訳戦略を開発した。
そして、ドメインギャップをさらに最小化するルールベースのオフライン拡張手法を考案する。
最後に,自己学習による自己構成セグメンテーションフレームワークを採用し,最終的な結果を得た。
CrossMoDA 2022バリデーションリーダーボードでは,VSとcochleaセグメンテーションの競合性能が0.8178$\pm$0.0803と0.8433$\pm$0.0293で達成されている。
関連論文リスト
- MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation
for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation [11.100048696665496]
教師なしドメイン適応(UDA)メソッドは、有望なクロスモダリティセグメンテーション性能を達成した。
本稿では,2つの重要な脳構造の自動分割のための,マルチスケールの自己組織化に基づくUDAフレームワークを提案する。
提案手法は,平均Diceスコアが83.8%,81.4%の有望なセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-03-28T08:55:00Z) - IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - Unsupervised Cross-Modality Domain Adaptation for Vestibular Schwannoma
Segmentation and Koos Grade Prediction based on Semi-Supervised Contrastive
Learning [1.5953825926551457]
クロスモダリティ前庭神経新生(VS)とコチェリーセグメンテーションとKoosグレード予測のための教師なしドメイン適応フレームワーク。
nnU-NetモデルはVSとcochleaセグメンテーションに利用され、半教師付きコントラクティブ学習事前訓練アプローチがモデル性能を改善するために使用される。
平均Diceスコアが0.8394のタスク1では4位,平均平均値が0.3941のタスク2では2位であった。
論文 参考訳(メタデータ) (2022-10-09T13:12:20Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Unsupervised Domain Adaptation for Vestibular Schwannoma and Cochlea
Segmentation via Semi-supervised Learning and Label Fusion [10.456308424227053]
磁気共鳴画像検査(MRI)による前庭神経癌(VS)腫瘍の分節法は,VS治療計画において重要である。
本研究では、教師なしドメイン適応設定において、VSとcochleaセグメンテーションの問題に取り組むことを目的とする。
提案手法は,画像レベルの領域アライメントを両立させ,領域のばらつきを最小限に抑えるとともに,半教師付きトレーニングにより性能をさらに向上させる。
論文 参考訳(メタデータ) (2022-01-25T22:01:04Z) - Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular
Schwannoma and Cochlea with Data Augmentation and Model Ensemble [4.942327155020771]
本稿では,前庭神経新生と子牛を識別する教師なし学習フレームワークを提案する。
本フレームワークは,T1強調MRI(ceT1-w)とそのラベルからの情報を活用し,対象領域にラベルが存在しないT2強調MRIのセグメンテーションを生成する。
提案手法は,VS と cochlea のそれぞれの平均値 0.7930 と 0.7432 で,有望なセグメンテーションの構築と生成が容易である。
論文 参考訳(メタデータ) (2021-09-24T20:10:05Z) - Cross-Modality Domain Adaptation for Vestibular Schwannoma and Cochlea
Segmentation [5.701095097774121]
我々は、教師なしドメイン適応設定において、VSとcochleaセグメンテーションの問題に取り組むことを提案する。
提案手法は,画像レベルの領域アライメントを両立させ,領域のばらつきを最小限に抑えるとともに,半教師付きトレーニングにより性能をさらに向上させる。
以上の結果から,VS と cochlea のセグメンテーション性能は有望であり,平均サイススコアは 0.8261 $pm$ 0.0416,腫瘍の平均サイス値は 0.8302 $pm$ 0.0772 であった。
論文 参考訳(メタデータ) (2021-09-13T19:24:15Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Unsupervised Intra-domain Adaptation for Semantic Segmentation through
Self-Supervision [73.76277367528657]
畳み込みニューラルネットワークに基づくアプローチは、セマンティックセグメンテーションにおいて顕著な進歩を遂げた。
この制限に対処するために、グラフィックエンジンから生成された注釈付きデータを使用してセグメンテーションモデルをトレーニングする。
ドメイン間およびドメイン間ギャップを最小化する2段階の自己教師付きドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-04-16T15:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。