論文の概要: M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision
- arxiv url: http://arxiv.org/abs/2212.07276v2
- Date: Sun, 30 Jul 2023 12:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 00:07:07.397621
- Title: M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision
- Title(参考訳): M-GenSeg: Annotation-Efficient Supervision を用いたターゲットモード腫瘍分割のためのドメイン適応
- Authors: Malo Alefsen de Boisredon d'Assier and Eugene Vorontsov and Samuel
Kadoury
- Abstract要約: M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
- 参考スコア(独自算出の注目度): 4.023899199756184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated medical image segmentation using deep neural networks typically
requires substantial supervised training. However, these models fail to
generalize well across different imaging modalities. This shortcoming,
amplified by the limited availability of expert annotated data, has been
hampering the deployment of such methods at a larger scale across modalities.
To address these issues, we propose M-GenSeg, a new semi-supervised generative
training strategy for cross-modality tumor segmentation on unpaired bi-modal
datasets. With the addition of known healthy images, an unsupervised objective
encourages the model to disentangling tumors from the background, which
parallels the segmentation task. Then, by teaching the model to convert images
across modalities, we leverage available pixel-level annotations from the
source modality to enable segmentation in the unannotated target modality. We
evaluated the performance on a brain tumor segmentation dataset composed of
four different contrast sequences from the public BraTS 2020 challenge data. We
report consistent improvement in Dice scores over state-of-the-art
domain-adaptive baselines on the unannotated target modality. Unlike the prior
art, M-GenSeg also introduces the ability to train with a partially annotated
source modality.
- Abstract(参考訳): ディープニューラルネットワークを用いた医用画像の自動セグメンテーションは通常、十分な教師付きトレーニングを必要とする。
しかし、これらのモデルは様々な画像モダリティでうまく一般化できない。
この欠点は、専門家の注釈付きデータの限られた可用性によって増幅され、モダリティをまたいだ大規模にそのようなメソッドのデプロイを妨げている。
そこで本研究では,非ペア型バイモーダルデータセットにおけるクロスモダリティ腫瘍分割のための半教師付き生成訓練戦略であるm-gensegを提案する。
既知の健全な画像を追加することで、教師なしの目標は、セグメンテーションタスクと並行する背景から腫瘍を分離することをモデルに促す。
そして,モダリティ間の画像変換をモデルに教えることで,利用可能なピクセルレベルのアノテーションをソースモダリティから活用し,無注釈のターゲットモダリティにおけるセグメンテーションを可能にする。
公開BraTS 2020チャレンジデータから4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
我々は,unannotated target modalityにおいて,最先端のドメイン適応ベースラインに対するdiceスコアの一貫した改善を報告している。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
関連論文リスト
- Generalizable Single-Source Cross-modality Medical Image Segmentation via Invariant Causal Mechanisms [16.699205051836657]
単一ソースドメインの一般化は、見当たらないターゲットドメインをうまく一般化できる単一のソースドメインからモデルを学ぶことを目的としている。
これはコンピュータビジョンにおいて重要なタスクであり、特にドメインシフトが一般的である医療画像に関係している。
我々は,領域不変表現の学習に関する因果性に着想を得た理論的洞察と拡散に基づく拡張の最近の進歩を組み合わせることにより,多様な画像モダリティの一般化を向上する。
論文 参考訳(メタデータ) (2024-11-07T22:35:17Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Image-level supervision and self-training for transformer-based
cross-modality tumor segmentation [2.29206349318258]
そこで本研究では,MoDATTSと呼ばれる半教師付きトレーニング戦略を提案する。
MoDATTSは、未実装のバイモーダルデータセット上の正確な3D腫瘍セグメンテーションのために設計されている。
この最大性能の99%と100%は、目標データの20%と50%が注釈付きであれば達成できると報告している。
論文 参考訳(メタデータ) (2023-09-17T11:50:12Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Cross-modal tumor segmentation using generative blending augmentation and self training [1.6440045168835438]
本稿では,新しいデータ拡張手法によって強化された従来の画像合成に基づくクロスモーダルセグメンテーション手法を提案する。
Generative Blending Augmentation (GBA)は、単一のトレーニング画像から代表的生成特徴を学習し、腫瘍の外観を現実的に多様化させる。
提案手法は,MICCAI CrossMoDA 2022 チャレンジの検証および試験段階において,前庭神経ショーノマ(VS)セグメンテーションにおいて第1位となった。
論文 参考訳(メタデータ) (2023-04-04T11:01:46Z) - Learning Multi-Modal Brain Tumor Segmentation from Privileged
Semi-Paired MRI Images with Curriculum Disentanglement Learning [4.43142018105102]
本稿では,脳腫瘍セグメンテーションのための2段階(イントラモダリティとイントラモダリティ)のカリキュラム・アンタングルメント・ラーニング・フレームワークを提案する。
最初のステップでは、拡張されたモダリティ内スタイルのイメージで再構成とセグメンテーションを行うことを提案する。
第2のステップでは、モデルは、未ペア画像とペア画像の両方の再構成、教師なし/教師なし翻訳、セグメンテーションを共同で行う。
論文 参考訳(メタデータ) (2022-08-26T16:52:43Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Shape-aware Meta-learning for Generalizing Prostate MRI Segmentation to
Unseen Domains [68.73614619875814]
前立腺MRIのセグメント化におけるモデル一般化を改善するために,新しい形状認識メタラーニング手法を提案する。
実験結果から,本手法は未確認領域の6つの設定すべてにおいて,最先端の一般化手法を一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-04T07:56:02Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。