論文の概要: Cross-modal tumor segmentation using generative blending augmentation and self training
- arxiv url: http://arxiv.org/abs/2304.01705v2
- Date: Fri, 29 Mar 2024 13:53:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 20:56:17.103475
- Title: Cross-modal tumor segmentation using generative blending augmentation and self training
- Title(参考訳): 生成的ブレンディング増強と自己訓練による異所性腫瘍の分節化
- Authors: Guillaume Sallé, Pierre-Henri Conze, Julien Bert, Nicolas Boussion, Dimitris Visvikis, Vincent Jaouen,
- Abstract要約: 本稿では,新しいデータ拡張手法によって強化された従来の画像合成に基づくクロスモーダルセグメンテーション手法を提案する。
Generative Blending Augmentation (GBA)は、単一のトレーニング画像から代表的生成特徴を学習し、腫瘍の外観を現実的に多様化させる。
提案手法は,MICCAI CrossMoDA 2022 チャレンジの検証および試験段階において,前庭神経ショーノマ(VS)セグメンテーションにおいて第1位となった。
- 参考スコア(独自算出の注目度): 1.6440045168835438
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: \textit{Objectives}: Data scarcity and domain shifts lead to biased training sets that do not accurately represent deployment conditions. A related practical problem is cross-modal image segmentation, where the objective is to segment unlabelled images using previously labelled datasets from other imaging modalities. \textit{Methods}: We propose a cross-modal segmentation method based on conventional image synthesis boosted by a new data augmentation technique called Generative Blending Augmentation (GBA). GBA leverages a SinGAN model to learn representative generative features from a single training image to diversify realistically tumor appearances. This way, we compensate for image synthesis errors, subsequently improving the generalization power of a downstream segmentation model. The proposed augmentation is further combined to an iterative self-training procedure leveraging pseudo labels at each pass. \textit{Results}: The proposed solution ranked first for vestibular schwannoma (VS) segmentation during the validation and test phases of the MICCAI CrossMoDA 2022 challenge, with best mean Dice similarity and average symmetric surface distance measures. \textit{Conclusion and significance}: Local contrast alteration of tumor appearances and iterative self-training with pseudo labels are likely to lead to performance improvements in a variety of segmentation contexts.
- Abstract(参考訳): \textit{Objectives}: データの不足とドメインシフトは、デプロイメント条件を正確に表現しないバイアス付きトレーニングセットにつながる。
関連した実用的な問題として、クロスモーダルなイメージセグメンテーションがあり、これは、以前にラベル付きデータセットを他の画像モダリティから切り離したイメージを分割することを目的としている。
そこで本研究では,GBA(Generative Blending Augmentation)と呼ばれる新たなデータ拡張手法により,従来の画像合成法に基づくクロスモーダルセグメンテーション手法を提案する。
GBAは、SinGANモデルを利用して、単一のトレーニング画像から代表的生成特徴を学習し、現実的な腫瘍の出現を多様化する。
このようにして、画像合成誤差を補償し、その後、下流セグメントモデルの一般化能力を向上させる。
提案手法は,各パスにおける擬似ラベルを利用した反復的自己学習手法と組み合わせたものである。
\textit{Results}: 提案された解は、MICCAI CrossMoDA 2022チャレンジの検証とテストフェーズにおいて、Dice類似度と平均対称表面距離測定において、前庭神経ショーノマ(VS)セグメンテーション(VS)セグメンテーション(VS)セグメンテーション(VS)セグメンテーション(VS)セグメンテーション(VS)セグメンテーション(VS)セグメンテーション(VS)セグメンテーション)で最初にランク付けされた。
\textit{Conclusion and importance}: 腫瘍の出現の局所的なコントラスト変化と擬似ラベルによる反復的自己訓練は、様々なセグメンテーションコンテキストにおけるパフォーマンス改善につながる可能性が高い。
関連論文リスト
- HisynSeg: Weakly-Supervised Histopathological Image Segmentation via Image-Mixing Synthesis and Consistency Regularization [15.13875300007579]
HisynSegは画像混合合成と一貫性正規化に基づく弱教師付きセマンティックセマンティックセマンティクスフレームワークである。
HisynSegは3つのデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-30T13:10:48Z) - Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - SemFlow: Binding Semantic Segmentation and Image Synthesis via Rectified Flow [94.90853153808987]
セマンティックセグメンテーション(Semantic segmentation)とセマンティックイメージ合成(Semantic image synthesis)は、視覚知覚と生成において代表的なタスクである。
我々は、統一されたフレームワーク(SemFlow)を提案し、それらを2つの逆問題としてモデル化する。
実験の結果,セマンティックセグメンテーションとセマンティック画像合成タスクにおいて,セマンティックセグメンテーションと競合する結果が得られた。
論文 参考訳(メタデータ) (2024-05-30T17:34:40Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - A Simple and Robust Framework for Cross-Modality Medical Image
Segmentation applied to Vision Transformers [0.0]
単一条件モデルを用いて複数モードの公平な画像分割を実現するための簡単なフレームワークを提案する。
本研究の枠組みは,マルチモーダル全心条件課題において,他のモダリティセグメンテーション手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-09T09:51:44Z) - M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision [4.023899199756184]
M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
論文 参考訳(メタデータ) (2022-12-14T15:19:06Z) - Image Segmentation with Adaptive Spatial Priors from Joint Registration [10.51970325349652]
大腿筋画像では、異なる筋肉が束ねられ、その間に明確な境界が存在しないことが多い。
関節登録から適応的な空間的先行性を持つセグメンテーションモデルを提案する。
人工大腿筋MR画像の合成モデルと大腿筋MR画像について検討した。
論文 参考訳(メタデータ) (2022-03-29T13:29:59Z) - Segmentation-Renormalized Deep Feature Modulation for Unpaired Image
Harmonization [0.43012765978447565]
サイクル一貫性のある生成共役ネットワークは、ソースとターゲットドメイン間のイメージセットの調和に使われてきた。
これらの手法は、不安定性、コントラストの逆転、病理の難治性操作、および実際の医用画像における信頼性を制限したステガノグラフィーマッピングの傾向が強い。
解剖学的レイアウトを維持しながらスキャナ間の調和を低減するセグメンテーション正規化画像翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-11T23:53:51Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。