論文の概要: Adversarial Continual Learning for Multi-Domain Hippocampal Segmentation
- arxiv url: http://arxiv.org/abs/2107.08751v3
- Date: Wed, 21 Jul 2021 07:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 11:35:52.093868
- Title: Adversarial Continual Learning for Multi-Domain Hippocampal Segmentation
- Title(参考訳): 多領域海馬セグメンテーションのための相反連続学習
- Authors: Marius Memmel, Camila Gonzalez, Anirban Mukhopadhyay
- Abstract要約: 医用画像の深層学習は、データ可用性に関する時間的およびプライバシー関連の制約に悩まされている。
本稿では,2つ以上のデータセットの同時可用性を活用して,コンテンツとドメイン間の絡み合いを学習するアーキテクチャを提案する。
本手法は破滅的な忘れ込みを減らし,最先端の継続的学習方法より優れていることを示す。
- 参考スコア(独自算出の注目度): 0.46023882211671957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning for medical imaging suffers from temporal and privacy-related
restrictions on data availability. To still obtain viable models, continual
learning aims to train in sequential order, as and when data is available. The
main challenge that continual learning methods face is to prevent catastrophic
forgetting, i.e., a decrease in performance on the data encountered earlier.
This issue makes continuous training of segmentation models for medical
applications extremely difficult. Yet, often, data from at least two different
domains is available which we can exploit to train the model in a way that it
disregards domain-specific information. We propose an architecture that
leverages the simultaneous availability of two or more datasets to learn a
disentanglement between the content and domain in an adversarial fashion. The
domain-invariant content representation then lays the base for continual
semantic segmentation. Our approach takes inspiration from domain adaptation
and combines it with continual learning for hippocampal segmentation in brain
MRI. We showcase that our method reduces catastrophic forgetting and
outperforms state-of-the-art continual learning methods.
- Abstract(参考訳): 医学画像のディープラーニングは、時間的およびプライバシーに関連したデータ可用性の制限に苦しむ。
まだ実行可能なモデルを得るために、連続学習は、データが利用可能でいつ、連続的にトレーニングすることを目的としている。
連続学習法が直面する主な課題は、破滅的な忘れ、すなわち、先に遭遇したデータの性能低下を防ぐことである。
この問題により,医療用セグメンテーションモデルの継続的トレーニングが極めて困難になる。
しかし、多くの場合、ドメイン固有の情報を無視した方法でモデルをトレーニングするために、少なくとも2つの異なるドメインからのデータが利用可能です。
本稿では,2つ以上のデータセットを同時利用して,コンテンツとドメインの絡み合いを対角的に学習するアーキテクチャを提案する。
ドメイン不変のコンテンツ表現は、連続的なセマンティックセグメンテーションの基盤を置く。
提案手法は,脳MRIにおける海馬セグメンテーションの連続学習と,ドメイン適応からインスピレーションを得たものである。
本手法は破滅的な忘れ込みを減らし,最先端の継続的学習方法より優れていることを示す。
関連論文リスト
- A Classifier-Free Incremental Learning Framework for Scalable Medical Image Segmentation [6.591403935303867]
本稿では,単一分類器のないネットワークにおいて,可変数のクラスをセグメント化できる新しいセグメンテーションパラダイムを提案する。
このネットワークは、コントラスト学習を用いて訓練され、簡単な解釈を容易にする識別的特徴表現を生成する。
統合ネットワーク内での様々なクラス数処理における本手法の柔軟性とその漸進学習能力について述べる。
論文 参考訳(メタデータ) (2024-05-25T19:05:07Z) - Explainable Semantic Medical Image Segmentation with Style [7.074258860680265]
ラベル付きデータのみを限定して一般化可能なセグメンテーションを実現するための,完全教師付き生成フレームワークを提案する。
提案手法は,エンド・ツー・エンドの対角訓練を取り入れたセグメンテーション・タスク駆動型識別器と組み合わせた医用画像スタイルを作成する。
完全セマンティックで公開可能なペルビウスデータセットの実験では、我々の手法は他の最先端の手法よりも、シフトに対してより一般化可能であることが示された。
論文 参考訳(メタデータ) (2023-03-10T04:34:51Z) - Segmentation of Multiple Sclerosis Lesions across Hospitals: Learn
Continually or Train from Scratch? [8.691839346510116]
経験の再現は、よく知られた連続学習法である。
我々は,リプレイが肯定的な後方移動を実現し,破滅的な忘れ込みを軽減できることを示した。
実験の結果,リプレイは肯定的な後方移動を実現し,破滅的な忘れ込みを軽減できることがわかった。
論文 参考訳(メタデータ) (2022-10-27T00:32:13Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Continual learning of longitudinal health records [0.0]
縦ICUデータに対する連続学習手法の評価を行った。
短期的忘れを緩和する手法はいくつかあるが、ドメインシフトは大規模なタスクに対して難しい問題である。
論文 参考訳(メタデータ) (2021-12-22T15:08:45Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Adversarial Semantic Hallucination for Domain Generalized Semantic
Segmentation [50.14933487082085]
本稿では,クラスワイド・幻覚モジュールとセマンティック・セグメンテーション・モジュールを組み合わせた対向幻覚手法を提案する。
対象とするドメインデータをトレーニングに使用できない場合に,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-06-08T07:07:45Z) - What is Wrong with Continual Learning in Medical Image Segmentation? [1.2020488155038649]
連続的な学習プロトコルは、医療画像コミュニティから注目を集めている。
連続的な設定では、異なるソースからのデータが順次到着し、各バッチは限られた期間しか利用できない。
このベンチマークは,T2重み付きMR前立腺セグメンテーションのタスクにおいて,2つの一般的な連続学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-21T13:48:37Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。