論文の概要: Cross-modal tumor segmentation using generative blending augmentation
and self training
- arxiv url: http://arxiv.org/abs/2304.01705v1
- Date: Tue, 4 Apr 2023 11:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 14:07:06.742099
- Title: Cross-modal tumor segmentation using generative blending augmentation
and self training
- Title(参考訳): ジェネレイティブブレンドによる交叉モーダル腫瘍の分節化と自己訓練
- Authors: Guillaume Sall\'e, Pierre-Henri Conze, Julien Bert, Nicolas Boussion,
Dimitris Visvikis, Vincent Jaouen
- Abstract要約: 我々は、反復的自己訓練と、生成的ブレンディング拡張(GBA)と呼ばれる専用データ拡張技術を組み合わせた、従来の画像から画像への変換とセグメンテーションを利用するVSセグメンテーション手法を提案する。
我々のソリューションは、MICCAI CrossMoDA 2022チャレンジの検証とテストフェーズにおいて、VSセグメンテーションタスクで第1位にランクインした。
- 参考スコア(独自算出の注目度): 3.780888868838804
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning for medical imaging is limited by data scarcity and domain
shift, which lead to biased training sets that do not accurately represent
deployment conditions. A related practical problem is cross-modal segmentation
where the objective is to segment unlabelled domains using previously labelled
images from other modalites, which is the context of the MICCAI CrossMoDA 2022
challenge on vestibular schwannoma (VS) segmentation. In this context, we
propose a VS segmentation method that leverages conventional image-to-image
translation and segmentation using iterative self training combined to a
dedicated data augmentation technique called Generative Blending Augmentation
(GBA). GBA is based on a one-shot 2D SinGAN generative model that allows to
realistically diversify target tumor appearances in a downstream segmentation
model, improving its generalization power at test time. Our solution ranked
first on the VS segmentation task during the validation and test phase of the
CrossModa 2022 challenge.
- Abstract(参考訳): 医療画像のためのディープラーニングは、データの不足とドメインシフトによって制限されるため、デプロイ条件を正確に表現しない偏りのあるトレーニングセットに繋がる。
MICCAI CrossMoDA 2022 Challenge on vestibular schwannoma (VS) segmentationのコンテキストである、他のモダライトからのラベル付き画像を用いて、未ラベル領域を分割することが目的である。
本稿では,従来の画像から画像への翻訳とセグメント化を反復的自己学習とgba(generative blending augmentation)と呼ばれる専用データ拡張技術を組み合わせたvsセグメント化手法を提案する。
GBAは1ショットの2D SinGAN生成モデルに基づいており、下流のセグメンテーションモデルにおいてターゲット腫瘍の外観を現実的に多様化させ、テスト時の一般化能力を向上させる。
私たちのソリューションは、CrossModa 2022チャレンジの検証とテストフェーズにおいて、VSセグメンテーションタスクで第1位でした。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for
Semi-supervised Polyp Segmentation [52.06525450636897]
大腸癌の早期診断と治療において, 自動ポリープセグメンテーションが重要な役割を担っている。
既存の手法は、完全に教師されたトレーニングに大きく依存しており、大量のラベル付きデータと時間を要するピクセル単位のアノテーションを必要とする。
大腸内視鏡画像からの半教師付きポリープ(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation
for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation [11.100048696665496]
教師なしドメイン適応(UDA)メソッドは、有望なクロスモダリティセグメンテーション性能を達成した。
本稿では,2つの重要な脳構造の自動分割のための,マルチスケールの自己組織化に基づくUDAフレームワークを提案する。
提案手法は,平均Diceスコアが83.8%,81.4%の有望なセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-03-28T08:55:00Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision [4.023899199756184]
M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
論文 参考訳(メタデータ) (2022-12-14T15:19:06Z) - Instance Segmentation of Unlabeled Modalities via Cyclic Segmentation
GAN [27.936725483892076]
本稿では,画像翻訳とインスタンスセグメンテーションを共同で行うCysic Generative Adrial Network(CySGAN)を提案する。
注記電子顕微鏡(en:Annotated electron microscopy, EM)画像とラベルなし拡張顕微鏡(en:Unlabeled expansion microscopy, ExM)データを用いて, ニューロンの3次元セグメンテーションの課題についてベンチマークを行った。
論文 参考訳(メタデータ) (2022-04-06T20:46:39Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - ICMSC: Intra- and Cross-modality Semantic Consistency for Unsupervised
Domain Adaptation on Hip Joint Bone Segmentation [1.4148874598036136]
UDAのためのICMSC(Intra- and Cross-modality semantic consistent)を提案する。
提案手法では,アセタブルムの平均DICEは81.61%,近位大腿骨は88.16%であった。
UDAなしでは、股関節骨分割のためのCTで訓練されたモデルはMRIに転送できず、ほぼゼロDICE分割を有する。
論文 参考訳(メタデータ) (2020-12-23T09:58:38Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。