論文の概要: Importance Driven Continual Learning for Segmentation Across Domains
- arxiv url: http://arxiv.org/abs/2005.00079v1
- Date: Thu, 30 Apr 2020 19:58:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 05:07:56.434066
- Title: Importance Driven Continual Learning for Segmentation Across Domains
- Title(参考訳): ドメイン間のセグメンテーションのための重要度駆動型連続学習
- Authors: Sinan \"Ozg\"ur \"Ozg\"un, Anne-Marie Rickmann, Abhijit Guha Roy,
Christian Wachinger
- Abstract要約: 脳のセグメンテーションのための継続的学習手法を提案する。
医用画像のセグメンテーションに適応するために,我々は重要駆動アプローチを構築した。
以上の結果から,重要なネットワークパラメータの適応を直接的に制限することは,カタストロフィック・フォーッティングを減少させることが明らかとなった。
- 参考スコア(独自算出の注目度): 5.199765487172328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability of neural networks to continuously learn and adapt to new tasks
while retaining prior knowledge is crucial for many applications. However,
current neural networks tend to forget previously learned tasks when trained on
new ones, i.e., they suffer from Catastrophic Forgetting (CF). The objective of
Continual Learning (CL) is to alleviate this problem, which is particularly
relevant for medical applications, where it may not be feasible to store and
access previously used sensitive patient data. In this work, we propose a
Continual Learning approach for brain segmentation, where a single network is
consecutively trained on samples from different domains. We build upon an
importance driven approach and adapt it for medical image segmentation.
Particularly, we introduce learning rate regularization to prevent the loss of
the network's knowledge. Our results demonstrate that directly restricting the
adaptation of important network parameters clearly reduces Catastrophic
Forgetting for segmentation across domains.
- Abstract(参考訳): ニューラルネットワークが新しいタスクを継続的に学習し、適応する能力は、多くのアプリケーションにとって非常に重要です。
しかし、現在のニューラルネットワークは、新しいもの、すなわち破滅的な忘れ(cf)に苦しむ場合、以前の学習したタスクを忘れがちである。
継続学習(continual learning, cl)の目的は、この問題を緩和することであり、特に医学的応用に関係しており、これまで使用されていたセンシティブな患者データを保存してアクセスすることは不可能である。
そこで本研究では,脳のセグメンテーションを連続的に学習し,異なる領域のサンプルに対して単一のネットワークを連続的に学習する手法を提案する。
重要度に基づくアプローチを構築し、医療用画像のセグメンテーションに適用します。
特に,ネットワークの知識の喪失を防止するために,学習率の正規化を導入する。
その結果,重要なネットワークパラメータの適応を直接制限することは,ドメイン間のセグメンテーションに対するカタストロフィック・フォッティングを著しく減少させることがわかった。
関連論文リスト
- Deep Internal Learning: Deep Learning from a Single Input [88.59966585422914]
多くの場合、手元にある入力からネットワークをトレーニングする価値がある。
これは、トレーニングデータが少なく、多様性が大きい多くの信号および画像処理問題に特に関係している。
本研究の目的は,この2つの重要な方向に向けて,過去数年間に提案されてきた深層学習技術について報告することである。
論文 参考訳(メタデータ) (2023-12-12T16:48:53Z) - Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Center Loss Regularization for Continual Learning [0.0]
一般的に、ニューラルネットワークには、さまざまなタスクを逐次学習する能力がない。
提案手法では,従来のタスクに近い新しいタスクの表現を投影することで,古いタスクを記憶する。
提案手法は,最先端の継続的学習手法と比較して,スケーラブルで効果的で,競争力のある性能を示す。
論文 参考訳(メタデータ) (2021-10-21T17:46:44Z) - Gradient Projection Memory for Continual Learning [5.43185002439223]
過去のタスクを忘れずに継続的に学習する能力は、人工学習システムにとって望ましい属性です。
ニューラルネットワークは,従来のタスクにとって重要と考えられる勾配部分空間に直交方向の勾配を向けることで,新しいタスクを学習する手法を提案する。
論文 参考訳(メタデータ) (2021-03-17T16:31:29Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - Embedding Task Knowledge into 3D Neural Networks via Self-supervised
Learning [21.902313057142905]
自己教師付き学習(SSL)は、アノテーション付きデータの潜在的な解決策である。
我々は,3次元医用画像分類,すなわちタスク関連コントラスト予測符号化(TCPC)のための新しいSSL手法を提案する。
TCPCは、タスク知識を3Dニューラルネットワークのトレーニングに組み込む。
論文 参考訳(メタデータ) (2020-06-10T12:37:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。