論文の概要: Cross-modal tumor segmentation using generative blending augmentation
and self training
- arxiv url: http://arxiv.org/abs/2304.01705v1
- Date: Tue, 4 Apr 2023 11:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 14:07:06.742099
- Title: Cross-modal tumor segmentation using generative blending augmentation
and self training
- Title(参考訳): ジェネレイティブブレンドによる交叉モーダル腫瘍の分節化と自己訓練
- Authors: Guillaume Sall\'e, Pierre-Henri Conze, Julien Bert, Nicolas Boussion,
Dimitris Visvikis, Vincent Jaouen
- Abstract要約: 我々は、反復的自己訓練と、生成的ブレンディング拡張(GBA)と呼ばれる専用データ拡張技術を組み合わせた、従来の画像から画像への変換とセグメンテーションを利用するVSセグメンテーション手法を提案する。
我々のソリューションは、MICCAI CrossMoDA 2022チャレンジの検証とテストフェーズにおいて、VSセグメンテーションタスクで第1位にランクインした。
- 参考スコア(独自算出の注目度): 3.780888868838804
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning for medical imaging is limited by data scarcity and domain
shift, which lead to biased training sets that do not accurately represent
deployment conditions. A related practical problem is cross-modal segmentation
where the objective is to segment unlabelled domains using previously labelled
images from other modalites, which is the context of the MICCAI CrossMoDA 2022
challenge on vestibular schwannoma (VS) segmentation. In this context, we
propose a VS segmentation method that leverages conventional image-to-image
translation and segmentation using iterative self training combined to a
dedicated data augmentation technique called Generative Blending Augmentation
(GBA). GBA is based on a one-shot 2D SinGAN generative model that allows to
realistically diversify target tumor appearances in a downstream segmentation
model, improving its generalization power at test time. Our solution ranked
first on the VS segmentation task during the validation and test phase of the
CrossModa 2022 challenge.
- Abstract(参考訳): 医療画像のためのディープラーニングは、データの不足とドメインシフトによって制限されるため、デプロイ条件を正確に表現しない偏りのあるトレーニングセットに繋がる。
MICCAI CrossMoDA 2022 Challenge on vestibular schwannoma (VS) segmentationのコンテキストである、他のモダライトからのラベル付き画像を用いて、未ラベル領域を分割することが目的である。
本稿では,従来の画像から画像への翻訳とセグメント化を反復的自己学習とgba(generative blending augmentation)と呼ばれる専用データ拡張技術を組み合わせたvsセグメント化手法を提案する。
GBAは1ショットの2D SinGAN生成モデルに基づいており、下流のセグメンテーションモデルにおいてターゲット腫瘍の外観を現実的に多様化させ、テスト時の一般化能力を向上させる。
私たちのソリューションは、CrossModa 2022チャレンジの検証とテストフェーズにおいて、VSセグメンテーションタスクで第1位でした。
関連論文リスト
- Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - SemFlow: Binding Semantic Segmentation and Image Synthesis via Rectified Flow [94.90853153808987]
セマンティックセグメンテーション(Semantic segmentation)とセマンティックイメージ合成(Semantic image synthesis)は、視覚知覚と生成において代表的なタスクである。
我々は、統一されたフレームワーク(SemFlow)を提案し、それらを2つの逆問題としてモデル化する。
実験の結果,セマンティックセグメンテーションとセマンティック画像合成タスクにおいて,セマンティックセグメンテーションと競合する結果が得られた。
論文 参考訳(メタデータ) (2024-05-30T17:34:40Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - A Simple and Robust Framework for Cross-Modality Medical Image
Segmentation applied to Vision Transformers [0.0]
単一条件モデルを用いて複数モードの公平な画像分割を実現するための簡単なフレームワークを提案する。
本研究の枠組みは,マルチモーダル全心条件課題において,他のモダリティセグメンテーション手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-09T09:51:44Z) - M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision [4.023899199756184]
M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
論文 参考訳(メタデータ) (2022-12-14T15:19:06Z) - Image Segmentation with Adaptive Spatial Priors from Joint Registration [10.51970325349652]
大腿筋画像では、異なる筋肉が束ねられ、その間に明確な境界が存在しないことが多い。
関節登録から適応的な空間的先行性を持つセグメンテーションモデルを提案する。
人工大腿筋MR画像の合成モデルと大腿筋MR画像について検討した。
論文 参考訳(メタデータ) (2022-03-29T13:29:59Z) - Segmentation-Renormalized Deep Feature Modulation for Unpaired Image
Harmonization [0.43012765978447565]
サイクル一貫性のある生成共役ネットワークは、ソースとターゲットドメイン間のイメージセットの調和に使われてきた。
これらの手法は、不安定性、コントラストの逆転、病理の難治性操作、および実際の医用画像における信頼性を制限したステガノグラフィーマッピングの傾向が強い。
解剖学的レイアウトを維持しながらスキャナ間の調和を低減するセグメンテーション正規化画像翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-11T23:53:51Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。