論文の概要: Image-level supervision and self-training for transformer-based
cross-modality tumor segmentation
- arxiv url: http://arxiv.org/abs/2309.09246v1
- Date: Sun, 17 Sep 2023 11:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 16:43:04.386481
- Title: Image-level supervision and self-training for transformer-based
cross-modality tumor segmentation
- Title(参考訳): トランスフォーマーを用いた腫瘍セグメント化のための画像レベルの監督と自己訓練
- Authors: Malo de Boisredon and Eugene Vorontsov and William Trung Le and Samuel
Kadoury
- Abstract要約: そこで本研究では,MoDATTSと呼ばれる半教師付きトレーニング戦略を提案する。
MoDATTSは、未実装のバイモーダルデータセット上の正確な3D腫瘍セグメンテーションのために設計されている。
この最大性能の99%と100%は、目標データの20%と50%が注釈付きであれば達成できると報告している。
- 参考スコア(独自算出の注目度): 2.29206349318258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are commonly used for automated medical image
segmentation, but models will frequently struggle to generalize well across
different imaging modalities. This issue is particularly problematic due to the
limited availability of annotated data, making it difficult to deploy these
models on a larger scale. To overcome these challenges, we propose a new
semi-supervised training strategy called MoDATTS. Our approach is designed for
accurate cross-modality 3D tumor segmentation on unpaired bi-modal datasets. An
image-to-image translation strategy between imaging modalities is used to
produce annotated pseudo-target volumes and improve generalization to the
unannotated target modality. We also use powerful vision transformer
architectures and introduce an iterative self-training procedure to further
close the domain gap between modalities. MoDATTS additionally allows the
possibility to extend the training to unannotated target data by exploiting
image-level labels with an unsupervised objective that encourages the model to
perform 3D diseased-to-healthy translation by disentangling tumors from the
background. The proposed model achieves superior performance compared to other
methods from participating teams in the CrossMoDA 2022 challenge, as evidenced
by its reported top Dice score of 0.87+/-0.04 for the VS segmentation. MoDATTS
also yields consistent improvements in Dice scores over baselines on a
cross-modality brain tumor segmentation task composed of four different
contrasts from the BraTS 2020 challenge dataset, where 95% of a target
supervised model performance is reached. We report that 99% and 100% of this
maximum performance can be attained if 20% and 50% of the target data is
additionally annotated, which further demonstrates that MoDATTS can be
leveraged to reduce the annotation burden.
- Abstract(参考訳): ディープニューラルネットワークは、医用画像のセグメンテーションの自動化に一般的に使用されるが、異なる画像モードにまたがるモデルの一般化にしばしば苦労する。
この問題は、注釈付きデータの可用性が限られているため、より大規模にモデルのデプロイが難しいため、特に問題となっている。
これらの課題を克服するため,我々はmodattsと呼ばれる新しい半監督訓練戦略を提案する。
提案手法は, 欠損したバイモーダルデータセット上での正確な3次元腫瘍セグメンテーションを目的としている。
画像モダリティ間の画像と画像の変換戦略を用いて、アノテーション付き擬似ターゲットボリュームを生成し、アノテーションなしターゲットモダリティへの一般化を改善する。
我々はまた、強力な視覚変換器アーキテクチャを使用し、モダリティ間のドメインギャップをさらに埋めるために反復的な自己学習手順を導入します。
さらに、MoDATTSは、画像レベルのラベルを教師なしの目的で活用することで、トレーニングを未診断のターゲットデータに拡張することができる。
提案手法は,VSセグメンテーションにおけるDiceスコアが0.87+/-0.04と報告されているCrossMoDA 2022チャレンジに参加する他のチームに比べて,優れたパフォーマンスを実現する。
MoDATTSはまた、BraTS 2020チャレンジデータセットと異なる4つのコントラストから構成されるクロスモダリティ脳腫瘍セグメンテーションタスクに基づいて、ベースラインよりもDiceスコアを一貫して改善する。
この最大性能の99%と100%は、対象データの20%と50%が付加注釈を付ければ達成できると報告し、さらにモダットをアノテーションの負担を軽減するために活用できることを示した。
関連論文リスト
- An Optimization Framework for Processing and Transfer Learning for the
Brain Tumor Segmentation [2.0886519175557368]
我々は脳腫瘍セグメント化のための3次元U-Netモデルに基づく最適化フレームワークを構築した。
このフレームワークには、さまざまな前処理や後処理技術、トランスファーラーニングなど、さまざまなテクニックが組み込まれている。
検証データセット上で、この多モード脳腫瘍セグメンテーションフレームワークは、それぞれチャレンジ1、2、3におけるDiceスコア平均0.79、0.72、0.74を達成する。
論文 参考訳(メタデータ) (2024-02-10T18:03:15Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Cross-modal tumor segmentation using generative blending augmentation
and self training [3.780888868838804]
我々は、反復的自己訓練と、生成的ブレンディング拡張(GBA)と呼ばれる専用データ拡張技術を組み合わせた、従来の画像から画像への変換とセグメンテーションを利用するVSセグメンテーション手法を提案する。
我々のソリューションは、MICCAI CrossMoDA 2022チャレンジの検証とテストフェーズにおいて、VSセグメンテーションタスクで第1位にランクインした。
論文 参考訳(メタデータ) (2023-04-04T11:01:46Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision [4.023899199756184]
M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
論文 参考訳(メタデータ) (2022-12-14T15:19:06Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Realistic Adversarial Data Augmentation for MR Image Segmentation [17.951034264146138]
医用画像セグメンテーションのためのニューラルネットワークのトレーニングのための逆データ拡張手法を提案する。
このモデルでは,MR画像における共通の種類のアーチファクトによって生じる強度不均一性,すなわちバイアス場をモデル化する。
このような手法により,モデルの一般化と堅牢性の向上が図られ,低データシナリオにおける大幅な改善が期待できる。
論文 参考訳(メタデータ) (2020-06-23T20:43:18Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。