論文の概要: MaxStyle: Adversarial Style Composition for Robust Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2206.01737v1
- Date: Thu, 2 Jun 2022 21:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 20:25:25.405178
- Title: MaxStyle: Adversarial Style Composition for Robust Medical Image
Segmentation
- Title(参考訳): maxstyle:ロバストな医用画像セグメンテーションのためのadversarial style composition
- Authors: Chen Chen, Zeju Li, Cheng Ouyang, Matt Sinclair, Wenjia Bai, Daniel
Rueckert
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、トレーニングとテストセットが同じドメインから存在するベンチマークデータセットにおいて、顕著なセグメンテーション精度を達成した。
CNNのパフォーマンスは、不明なドメインで著しく低下し、多くの臨床シナリオにおけるCNNの展開を妨げる。
我々は,OODモデルの性能向上のためのスタイル拡張の有効性を最大化するMaxStyleという新しいデータ拡張フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.329474646700776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have achieved remarkable segmentation
accuracy on benchmark datasets where training and test sets are from the same
domain, yet their performance can degrade significantly on unseen domains,
which hinders the deployment of CNNs in many clinical scenarios. Most existing
works improve model out-of-domain (OOD) robustness by collecting multi-domain
datasets for training, which is expensive and may not always be feasible due to
privacy and logistical issues. In this work, we focus on improving model
robustness using a single-domain dataset only. We propose a novel data
augmentation framework called MaxStyle, which maximizes the effectiveness of
style augmentation for model OOD performance. It attaches an auxiliary
style-augmented image decoder to a segmentation network for robust feature
learning and data augmentation. Importantly, MaxStyle augments data with
improved image style diversity and hardness, by expanding the style space with
noise and searching for the worst-case style composition of latent features via
adversarial training. With extensive experiments on multiple public cardiac and
prostate MR datasets, we demonstrate that MaxStyle leads to significantly
improved out-of-distribution robustness against unseen corruptions as well as
common distribution shifts across multiple, different, unseen sites and unknown
image sequences under both low- and high-training data settings. The code can
be found at https://github.com/cherise215/MaxStyle.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は、トレーニングとテストセットが同じドメインにあるベンチマークデータセットにおいて、顕著なセグメンテーション精度を達成しているが、そのパフォーマンスは、多くの臨床シナリオにおいてcnnの展開を妨げる未発見領域で著しく低下する可能性がある。
既存の作業の多くは、トレーニングのためにマルチドメインデータセットを収集することで、モデル・オブ・ドメイン(ood)の堅牢性を改善する。
本研究では,単一ドメインのデータセットのみを使用して,モデルのロバスト性を改善することに注力する。
我々は,OODモデルの性能向上のためのスタイル拡張の有効性を最大化するMaxStyleという新しいデータ拡張フレームワークを提案する。
補助的なスタイル拡張イメージデコーダをセグメンテーションネットワークに接続し、ロバストな特徴学習とデータ拡張を行う。
重要なことは、MaxStyleは、画像スタイルの多様性と硬さを改善して、ノイズでスタイル空間を拡大し、敵対的訓練を通じて潜伏した特徴の最悪のスタイル構成を探索することによって、データを強化することである。
複数の公開心臓および前立腺mrデータセットに関する広範囲な実験により、maxstyleは、低訓練データと高訓練データの両方で、複数の異なる未発見のサイトと未知の画像シーケンスにまたがる共通分散シフトと同様に、未発見の腐敗に対する分散のロバスト性が大幅に改善されることを実証した。
コードはhttps://github.com/cherise215/MaxStyleにある。
関連論文リスト
- Privacy-preserving datasets by capturing feature distributions with Conditional VAEs [0.11999555634662634]
条件付き変分オートエンコーダ(CVAE)は、大きな事前学習された視覚基盤モデルから抽出された特徴ベクトルに基づいて訓練される。
本手法は, 医用領域と自然画像領域の両方において, 従来のアプローチよりも優れている。
結果は、データスカースおよびプライバシに敏感な環境におけるディープラーニングアプリケーションに大きな影響を与える生成モデルの可能性を強調している。
論文 参考訳(メタデータ) (2024-08-01T15:26:24Z) - Synthetic Data for Robust Stroke Segmentation [0.0]
ニューロイメージングにおける病変のセグメンテーションに対する現在のディープラーニングベースのアプローチは、高解像度の画像と広範囲な注釈付きデータに依存することが多い。
本稿では,脳卒中病変のセグメンテーションに適した新しい合成データフレームワークを提案する。
我々のアプローチは、正常組織と病理組織の両方にまたがるセグメンテーションを促進するために、健康なデータセットと脳卒中データセットからラベルマップでモデルを訓練する。
論文 参考訳(メタデータ) (2024-04-02T13:42:29Z) - MoreStyle: Relax Low-frequency Constraint of Fourier-based Image Reconstruction in Generalizable Medical Image Segmentation [53.24011398381715]
MoreStyleと呼ばれるデータ拡張のためのPlug-and-Playモジュールを紹介します。
MoreStyleは、フーリエ空間の低周波制約を緩和することで、イメージスタイルを多様化する。
敵対的学習の助けを借りて、MoreStyleは潜在機能の中で最も複雑なスタイルの組み合わせを指差している。
論文 参考訳(メタデータ) (2024-03-18T11:38:47Z) - DG-TTA: Out-of-domain medical image segmentation through Domain Generalization and Test-Time Adaptation [43.842694540544194]
本稿では、ドメインの一般化とテスト時間適応を組み合わせることで、未確認対象領域で事前学習したモデルを再利用するための非常に効果的なアプローチを提案する。
本手法は,事前訓練した全身CTモデルと組み合わせることで,MR画像を高精度に分割できることを実証する。
論文 参考訳(メタデータ) (2023-12-11T10:26:21Z) - DGInStyle: Domain-Generalizable Semantic Segmentation with Image Diffusion Models and Stylized Semantic Control [68.14798033899955]
大規模で事前訓練された潜伏拡散モデル(LDM)は、創造的コンテンツを生成できる異常な能力を示した。
しかし、それらは例えば、セマンティックセグメンテーションのような知覚スタックのタスクを改善するために、大規模なデータジェネレータとして使用できますか?
自律運転の文脈でこの疑問を考察し、「はい」という言い換えで答える。
論文 参考訳(メタデータ) (2023-12-05T18:34:12Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Towards Robustness of Neural Networks [0.0]
我々は、画像Net-A/O と ImageNet-R と、合成環境とテストスイートである CAOS を紹介した。
すべてのデータセットは、ロバストネスのテストとロバストネスの進捗測定のために作成されました。
我々は、単純なベースラインを最大ロジット、典型スコアの形式で構築するとともに、DeepAugmentの形式で新しいデータ拡張手法を作成します。
論文 参考訳(メタデータ) (2021-12-30T19:41:10Z) - MixStyle Neural Networks for Domain Generalization and Adaptation [122.36901703868321]
MixStyleは、データ収集やモデルのキャパシティ向上を必要とせずに、ドメインの一般化性能を向上させるプラグイン・アンド・プレイモジュールである。
実験の結果,MixStyleは画像認識,インスタンス検索,強化学習など幅広いタスクにおいて,分布外一般化性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-05T14:29:19Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Adversarial Learning for Personalized Tag Recommendation [61.76193196463919]
大規模データセットでトレーニング可能なエンドツーエンドのディープネットワークを提案する。
ユーザの嗜好と視覚的エンコーディングの合同トレーニングにより、ネットワークは視覚的嗜好をタグ付け行動と効率的に統合することができる。
本稿では,提案モデルの有効性を2つの大規模および公開データセットで示す。
論文 参考訳(メタデータ) (2020-04-01T20:41:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。