論文の概要: Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening
- arxiv url: http://arxiv.org/abs/2211.04862v1
- Date: Wed, 9 Nov 2022 13:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 17:04:45.078717
- Title: Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening
- Title(参考訳): スタイル指向リプレイとドメイン感応性特徴白化を用いた領域増分心画像分割
- Authors: Kang Li, Lequan Yu, and Pheng-Ann Heng
- Abstract要約: M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 67.6394526631557
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Contemporary methods have shown promising results on cardiac image
segmentation, but merely in static learning, i.e., optimizing the network once
for all, ignoring potential needs for model updating. In real-world scenarios,
new data continues to be gathered from multiple institutions over time and new
demands keep growing to pursue more satisfying performance. The desired model
should incrementally learn from each incoming dataset and progressively update
with improved functionality as time goes by. As the datasets sequentially
delivered from multiple sites are normally heterogenous with domain
discrepancy, each updated model should not catastrophically forget previously
learned domains while well generalizing to currently arrived domains or even
unseen domains. In medical scenarios, this is particularly challenging as
accessing or storing past data is commonly not allowed due to data privacy. To
this end, we propose a novel domain-incremental learning framework to recover
past domain inputs first and then regularly replay them during model
optimization. Particularly, we first present a style-oriented replay module to
enable structure-realistic and memory-efficient reproduction of past data, and
then incorporate the replayed past data to jointly optimize the model with
current data to alleviate catastrophic forgetting. During optimization, we
additionally perform domain-sensitive feature whitening to suppress model's
dependency on features that are sensitive to domain changes (e.g.,
domain-distinctive style features) to assist domain-invariant feature
exploration and gradually improve the generalization performance of the
network. We have extensively evaluated our approach with the M&Ms Dataset in
single-domain and compound-domain incremental learning settings with improved
performance over other comparison approaches.
- Abstract(参考訳): 現代の方法は、心臓画像のセグメンテーションにおいて有望な結果を示しているが、単に静的学習、すなわちネットワークの最適化においてのみ、モデル更新の必要性を無視している。
現実のシナリオでは、時間とともに複数の機関から新しいデータが収集され続け、新しい要求はより満足のいくパフォーマンスを追求するために増え続けています。
望ましいモデルは、各入ってくるデータセットから段階的に学び、時間が経つにつれて機能を改善して段階的に更新するべきです。
複数のサイトからシーケンシャルに配信されるデータセットは、通常、ドメインの不一致と異質なので、更新されたモデルは、以前の学習したドメインを壊滅的に忘れてはならない。
医療シナリオでは、過去のデータへのアクセスや保存はデータのプライバシのために一般的に許可されないため、これは特に難しい。
そこで本研究では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
特に,過去データの構造現実的でメモリ効率のよい再現を可能にするために,まずスタイル指向のリプレイモジュールを提示し,そのリプレイした過去のデータを組み込んで,現在のデータと協調してモデル最適化を行い,破滅的な忘れを緩和する。
また、最適化の際には、ドメイン変更に敏感な機能(例えば、ドメイン識別スタイルの特徴)へのモデル依存性を抑えるために、ドメイン非変性機能探索を補助し、ネットワークの一般化性能を徐々に改善する。
我々は、m&msデータセットを用いた単ドメインおよび複合ドメインインクリメンタル学習環境でのアプローチを広範囲に評価し、他の比較アプローチよりもパフォーマンスを改善した。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Memory-Efficient Prompt Tuning for Incremental Histopathology
Classification [69.46798702300042]
本稿では,経済的なメモリコストのモデル一般化ポテンシャルを育成するための,メモリ効率の良いプロンプトチューニングフレームワークを提案する。
乳癌転移分類と上皮間質組織分類の2つの病理組織学的タスクにより,我々の枠組みを広く評価した。
論文 参考訳(メタデータ) (2024-01-22T03:24:45Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - Multi-Domain Incremental Learning for Semantic Segmentation [42.30646442211311]
そこで,同質な意味的特徴を捉えるために,普遍的に共有されるドメイン不変パラメータを割り当てる動的アーキテクチャを提案する。
提案手法が、ドイツ(都市景観)、アメリカ合衆国(BDD100k)、インド(IDD)の道路(都市景観)の実際の運転シーンに関連する領域の漸進的な設定に与える影響を実証する。
論文 参考訳(メタデータ) (2021-10-23T12:21:42Z) - Cross-domain Time Series Forecasting with Attention Sharing [10.180248006928107]
本稿では,データ不足問題に対処する新しいドメイン適応フレームワークであるDomain Adaptation Forecaster(DAF)を提案する。
特に、ドメイン間のドメイン識別器と、個々のドメインに対するプリベートモジュールを備えたアテンションベースの共有モジュールを提案する。
これにより、ドメイン固有の機能をトレーニングしながら、ドメイン不変の潜在機能を生成させることで、ソースとターゲットドメインを共同でトレーニングすることができる。
論文 参考訳(メタデータ) (2021-02-13T00:26:35Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Latent Domain Learning with Dynamic Residual Adapters [26.018759356470767]
ディープニューラルネットワークの現実的な欠点は、単一のタスクとドメインへの特殊化である。
ドメインアノテーションへのアクセスなしに、複数のドメインからデータから学ぶことです。
我々はこの制限を動的残留アダプタ(潜伏領域を考慮に入れた適応ゲーティング機構)を介して解決する。
論文 参考訳(メタデータ) (2020-06-01T15:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。