論文の概要: M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision
- arxiv url: http://arxiv.org/abs/2212.07276v1
- Date: Wed, 14 Dec 2022 15:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 17:47:18.453568
- Title: M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision
- Title(参考訳): M-GenSeg: Annotation-Efficient Supervision を用いたターゲットモード腫瘍分割のためのドメイン適応
- Authors: Malo Alefsen de Boisredon d'Assier and Eugene Vorontsov and Samuel
Kadoury
- Abstract要約: 我々は,M-GenSegを提案する。
画像レベルのラベルに基づいて、最初の教師なしの目的は、正常な翻訳に苦しむモデルの実行を奨励する。
そして、画像のモダリティ間の変換をモデルに教えることで、ソースのモダリティからターゲット画像の合成を可能にする。
- 参考スコア(独自算出の注目度): 4.023899199756184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated medical image segmentation using deep neural networks typically
requires substantial supervised training. However, these models fail to
generalize well across different imaging modalities. This shortcoming,
amplified by the limited availability of annotated data, has been hampering the
deployment of such methods at a larger scale across modalities. To address
these issues, we propose M-GenSeg, a new semi-supervised training strategy for
accurate cross-modality tumor segmentation on unpaired bi-modal datasets. Based
on image-level labels, a first unsupervised objective encourages the model to
perform diseased to healthy translation by disentangling tumors from the
background, which encompasses the segmentation task. Then, teaching the model
to translate between image modalities enables the synthesis of target images
from a source modality, thus leveraging the pixel-level annotations from the
source modality to enforce generalization to the target modality images. We
evaluated the performance on a brain tumor segmentation datasets composed of
four different contrast sequences from the public BraTS 2020 challenge dataset.
We report consistent improvement in Dice scores on both source and unannotated
target modalities. On all twelve distinct domain adaptation experiments, the
proposed model shows a clear improvement over state-of-the-art domain-adaptive
baselines, with absolute Dice gains on the target modality reaching 0.15.
- Abstract(参考訳): ディープニューラルネットワークを用いた医用画像の自動セグメンテーションは通常、十分な教師付きトレーニングを必要とする。
しかし、これらのモデルは様々な画像モダリティでうまく一般化できない。
この欠点は、注釈付きデータの可用性の制限によって増幅され、モダリティにまたがる大規模にそのようなメソッドのデプロイを妨げている。
これらの問題に対処するため,我々は非ペア型バイモーダルデータセット上の高精度クロスモダリティ腫瘍分割のための,新しい半教師付き訓練戦略であるm-gensegを提案する。
画像レベルのラベルに基づいて、第1の教師なしの目標は、セグメンテーションタスクを包含する背景から腫瘍を分離することで、健康な翻訳を行うようにモデルに促す。
そこで,画像モダリティ間の変換をモデルに教えることで,ソースモダリティからのターゲット画像の合成を可能にし,ソースモダリティからの画素レベルのアノテーションを活用し,ターゲットモダリティ画像への一般化を強制する。
公開BraTS 2020チャレンジデータセットから4つのコントラストシーケンスからなる脳腫瘍セグメント化データセットの性能評価を行った。
我々は、ソースと無注のターゲットモダリティの両方において、diceスコアの一貫した改善を報告している。
12種類の異なる領域適応実験において、提案モデルは最先端の領域適応ベースラインよりも明確な改善を示し、Diceは目標モダリティ0.15に達する。
関連論文リスト
- Generalizable Single-Source Cross-modality Medical Image Segmentation via Invariant Causal Mechanisms [16.699205051836657]
単一ソースドメインの一般化は、見当たらないターゲットドメインをうまく一般化できる単一のソースドメインからモデルを学ぶことを目的としている。
これはコンピュータビジョンにおいて重要なタスクであり、特にドメインシフトが一般的である医療画像に関係している。
我々は,領域不変表現の学習に関する因果性に着想を得た理論的洞察と拡散に基づく拡張の最近の進歩を組み合わせることにより,多様な画像モダリティの一般化を向上する。
論文 参考訳(メタデータ) (2024-11-07T22:35:17Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Image-level supervision and self-training for transformer-based
cross-modality tumor segmentation [2.29206349318258]
そこで本研究では,MoDATTSと呼ばれる半教師付きトレーニング戦略を提案する。
MoDATTSは、未実装のバイモーダルデータセット上の正確な3D腫瘍セグメンテーションのために設計されている。
この最大性能の99%と100%は、目標データの20%と50%が注釈付きであれば達成できると報告している。
論文 参考訳(メタデータ) (2023-09-17T11:50:12Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Cross-modal tumor segmentation using generative blending augmentation and self training [1.6440045168835438]
本稿では,新しいデータ拡張手法によって強化された従来の画像合成に基づくクロスモーダルセグメンテーション手法を提案する。
Generative Blending Augmentation (GBA)は、単一のトレーニング画像から代表的生成特徴を学習し、腫瘍の外観を現実的に多様化させる。
提案手法は,MICCAI CrossMoDA 2022 チャレンジの検証および試験段階において,前庭神経ショーノマ(VS)セグメンテーションにおいて第1位となった。
論文 参考訳(メタデータ) (2023-04-04T11:01:46Z) - Learning Multi-Modal Brain Tumor Segmentation from Privileged
Semi-Paired MRI Images with Curriculum Disentanglement Learning [4.43142018105102]
本稿では,脳腫瘍セグメンテーションのための2段階(イントラモダリティとイントラモダリティ)のカリキュラム・アンタングルメント・ラーニング・フレームワークを提案する。
最初のステップでは、拡張されたモダリティ内スタイルのイメージで再構成とセグメンテーションを行うことを提案する。
第2のステップでは、モデルは、未ペア画像とペア画像の両方の再構成、教師なし/教師なし翻訳、セグメンテーションを共同で行う。
論文 参考訳(メタデータ) (2022-08-26T16:52:43Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Shape-aware Meta-learning for Generalizing Prostate MRI Segmentation to
Unseen Domains [68.73614619875814]
前立腺MRIのセグメント化におけるモデル一般化を改善するために,新しい形状認識メタラーニング手法を提案する。
実験結果から,本手法は未確認領域の6つの設定すべてにおいて,最先端の一般化手法を一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-04T07:56:02Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。