論文の概要: M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision
- arxiv url: http://arxiv.org/abs/2212.07276v1
- Date: Wed, 14 Dec 2022 15:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 17:47:18.453568
- Title: M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision
- Title(参考訳): M-GenSeg: Annotation-Efficient Supervision を用いたターゲットモード腫瘍分割のためのドメイン適応
- Authors: Malo Alefsen de Boisredon d'Assier and Eugene Vorontsov and Samuel
Kadoury
- Abstract要約: 我々は,M-GenSegを提案する。
画像レベルのラベルに基づいて、最初の教師なしの目的は、正常な翻訳に苦しむモデルの実行を奨励する。
そして、画像のモダリティ間の変換をモデルに教えることで、ソースのモダリティからターゲット画像の合成を可能にする。
- 参考スコア(独自算出の注目度): 4.023899199756184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated medical image segmentation using deep neural networks typically
requires substantial supervised training. However, these models fail to
generalize well across different imaging modalities. This shortcoming,
amplified by the limited availability of annotated data, has been hampering the
deployment of such methods at a larger scale across modalities. To address
these issues, we propose M-GenSeg, a new semi-supervised training strategy for
accurate cross-modality tumor segmentation on unpaired bi-modal datasets. Based
on image-level labels, a first unsupervised objective encourages the model to
perform diseased to healthy translation by disentangling tumors from the
background, which encompasses the segmentation task. Then, teaching the model
to translate between image modalities enables the synthesis of target images
from a source modality, thus leveraging the pixel-level annotations from the
source modality to enforce generalization to the target modality images. We
evaluated the performance on a brain tumor segmentation datasets composed of
four different contrast sequences from the public BraTS 2020 challenge dataset.
We report consistent improvement in Dice scores on both source and unannotated
target modalities. On all twelve distinct domain adaptation experiments, the
proposed model shows a clear improvement over state-of-the-art domain-adaptive
baselines, with absolute Dice gains on the target modality reaching 0.15.
- Abstract(参考訳): ディープニューラルネットワークを用いた医用画像の自動セグメンテーションは通常、十分な教師付きトレーニングを必要とする。
しかし、これらのモデルは様々な画像モダリティでうまく一般化できない。
この欠点は、注釈付きデータの可用性の制限によって増幅され、モダリティにまたがる大規模にそのようなメソッドのデプロイを妨げている。
これらの問題に対処するため,我々は非ペア型バイモーダルデータセット上の高精度クロスモダリティ腫瘍分割のための,新しい半教師付き訓練戦略であるm-gensegを提案する。
画像レベルのラベルに基づいて、第1の教師なしの目標は、セグメンテーションタスクを包含する背景から腫瘍を分離することで、健康な翻訳を行うようにモデルに促す。
そこで,画像モダリティ間の変換をモデルに教えることで,ソースモダリティからのターゲット画像の合成を可能にし,ソースモダリティからの画素レベルのアノテーションを活用し,ターゲットモダリティ画像への一般化を強制する。
公開BraTS 2020チャレンジデータセットから4つのコントラストシーケンスからなる脳腫瘍セグメント化データセットの性能評価を行った。
我々は、ソースと無注のターゲットモダリティの両方において、diceスコアの一貫した改善を報告している。
12種類の異なる領域適応実験において、提案モデルは最先端の領域適応ベースラインよりも明確な改善を示し、Diceは目標モダリティ0.15に達する。
関連論文リスト
- Image-level supervision and self-training for transformer-based
cross-modality tumor segmentation [2.29206349318258]
そこで本研究では,MoDATTSと呼ばれる半教師付きトレーニング戦略を提案する。
MoDATTSは、未実装のバイモーダルデータセット上の正確な3D腫瘍セグメンテーションのために設計されている。
この最大性能の99%と100%は、目標データの20%と50%が注釈付きであれば達成できると報告している。
論文 参考訳(メタデータ) (2023-09-17T11:50:12Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Cross-modal tumor segmentation using generative blending augmentation
and self training [3.780888868838804]
我々は、反復的自己訓練と、生成的ブレンディング拡張(GBA)と呼ばれる専用データ拡張技術を組み合わせた、従来の画像から画像への変換とセグメンテーションを利用するVSセグメンテーション手法を提案する。
我々のソリューションは、MICCAI CrossMoDA 2022チャレンジの検証とテストフェーズにおいて、VSセグメンテーションタスクで第1位にランクインした。
論文 参考訳(メタデータ) (2023-04-04T11:01:46Z) - Learning Multi-Modal Brain Tumor Segmentation from Privileged
Semi-Paired MRI Images with Curriculum Disentanglement Learning [4.43142018105102]
本稿では,脳腫瘍セグメンテーションのための2段階(イントラモダリティとイントラモダリティ)のカリキュラム・アンタングルメント・ラーニング・フレームワークを提案する。
最初のステップでは、拡張されたモダリティ内スタイルのイメージで再構成とセグメンテーションを行うことを提案する。
第2のステップでは、モデルは、未ペア画像とペア画像の両方の再構成、教師なし/教師なし翻訳、セグメンテーションを共同で行う。
論文 参考訳(メタデータ) (2022-08-26T16:52:43Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Shape-aware Meta-learning for Generalizing Prostate MRI Segmentation to
Unseen Domains [68.73614619875814]
前立腺MRIのセグメント化におけるモデル一般化を改善するために,新しい形状認識メタラーニング手法を提案する。
実験結果から,本手法は未確認領域の6つの設定すべてにおいて,最先端の一般化手法を一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-04T07:56:02Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。