論文の概要: Revisiting Parameter Reuse to Overcome Catastrophic Forgetting in Neural
Networks
- arxiv url: http://arxiv.org/abs/2207.11005v1
- Date: Fri, 22 Jul 2022 10:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 13:25:43.291050
- Title: Revisiting Parameter Reuse to Overcome Catastrophic Forgetting in Neural
Networks
- Title(参考訳): ニューラルネットワークにおける破滅的予測を克服するためのパラメータ再利用の再検討
- Authors: Yuqing Zhao, Divya Saxena, Jiannong Cao
- Abstract要約: そこで我々は,大惨な忘れを克服するために,学習パラメータを完全に再利用し,成長させる適応学習手法AdaptCLを提案する。
提案手法は、凍結パラメータの最適再利用を可能にすることにより、同じ神経経路で適応的に成長する。
我々は,MNIST変数,DomainNet,および食品鮮度検出データセットについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 13.408086395282158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks tend to forget previously learned knowledge when continuously
learning on datasets with varying distributions, a phenomenon known as
catastrophic forgetting. More significant distribution shifts among datasets
lead to more forgetting. Recently, parameter-isolation-based approaches have
shown great potential in overcoming forgetting with significant distribution
shifts. However, they suffer from poor generalization as they fix the neural
path for each dataset during training and require dataset labels during
inference. In addition, they do not support backward knowledge transfer as they
prioritize past data over future ones. In this paper, we propose a new adaptive
learning method, named AdaptCL, that fully reuses and grows on learned
parameters to overcome catastrophic forgetting and allows the positive backward
transfer without requiring dataset labels. Our proposed technique adaptively
grows on the same neural path by allowing optimal reuse of frozen parameters.
Besides, it uses parameter-level data-driven pruning to assign equal priority
to the data. We conduct extensive experiments on MNIST Variants, DomainNet, and
Food Freshness Detection datasets under different intensities of distribution
shifts without requiring dataset labels. Results demonstrate that our proposed
method is superior to alternative baselines in minimizing forgetting and
enabling positive backward knowledge transfer.
- Abstract(参考訳): ニューラルネットワークは、さまざまな分布を持つデータセットで継続的に学習するときに、以前に学んだ知識を忘れがちだ。
データセット間のより重要な分散シフトは、より忘れ去られる。
近年、パラメータアイソレーションに基づくアプローチは、大きな分布シフトを伴う忘れを克服する大きな可能性を示している。
しかし、トレーニング中に各データセットのニューラルパスを修正し、推論時にデータセットラベルを必要とするため、一般化が不十分である。
さらに、過去のデータを将来のデータよりも優先するため、下位の知識転送をサポートしない。
本稿では,学習パラメータを十分に再利用して成長させ,壊滅的な忘れを克服し,データセットラベルを必要とせずに正の後方移動を可能にする,adaptclという新しい適応学習手法を提案する。
提案手法は,凍ったパラメータを最適に再利用することで,同じ神経経路上で適応的に成長する。
さらに、パラメータレベルのデータ駆動プルーニングを使用して、データに同じ優先度を割り当てる。
我々は,MNIST変数,DomainNet,およびFood Freshness Detectionデータセットについて,データセットラベルを必要とせずに分散シフトの異なる強度で広範な実験を行った。
提案手法は, 誤りを最小化し, ポジティブな後進知識伝達を可能にする上で, 代替ベースラインよりも優れていることを示す。
関連論文リスト
- Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - FedLF: Adaptive Logit Adjustment and Feature Optimization in Federated Long-Tailed Learning [5.23984567704876]
フェデレーション学習は、分散機械学習におけるプライバシの保護という課題にパラダイムを提供する。
伝統的なアプローチは、グローバルな長期データにおけるクラスワイドバイアスの現象に対処できない。
新しい手法であるFedLFは、適応ロジット調整、連続クラス中心最適化、特徴デコリレーションという、局所的なトレーニングフェーズに3つの修正を導入している。
論文 参考訳(メタデータ) (2024-09-18T16:25:29Z) - What is different between these datasets? [23.271594219577185]
同じドメイン内の2つの同等のデータセットは、異なる分布を持つ可能性がある。
本稿では,2つのデータセットを比較するための解釈可能な手法(ツールボックス)を提案する。
我々の手法は、説明品質と正確性の観点から比較および関連するアプローチよりも優れているだけでなく、データセットの違いを効果的に理解し軽減するための実用的な補完的な洞察を提供する。
論文 参考訳(メタデータ) (2024-03-08T19:52:39Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Metadata Archaeology: Unearthing Data Subsets by Leveraging Training
Dynamics [3.9627732117855414]
メタデータ考古学のための統一的で効率的なフレームワークを提供することに注力する。
データセットに存在する可能性のあるデータのさまざまなサブセットをキュレートします。
これらのプローブスイート間の学習力学の相違を利用して、関心のメタデータを推測する。
論文 参考訳(メタデータ) (2022-09-20T21:52:39Z) - Detection Hub: Unifying Object Detection Datasets via Query Adaptation
on Language Embedding [137.3719377780593]
新しいデザイン(De Detection Hubという名前)は、データセット認識とカテゴリ整列である。
データセットの不整合を緩和し、検出器が複数のデータセットをまたいで学習するための一貫性のあるガイダンスを提供する。
データセット間のカテゴリは、ワンホットなカテゴリ表現を単語埋め込みに置き換えることで、意味的に統一された空間に整列される。
論文 参考訳(メタデータ) (2022-06-07T17:59:44Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Learning Semantic Segmentation from Multiple Datasets with Label Shifts [101.24334184653355]
本論文では,ラベル空間が異なる複数のデータセットを対象としたモデルの自動学習手法であるUniSegを提案する。
具体的には,ラベルの相反と共起を考慮に入れた2つの損失を提案する。
論文 参考訳(メタデータ) (2022-02-28T18:55:19Z) - DAIL: Dataset-Aware and Invariant Learning for Face Recognition [67.4903809903022]
顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。
2つの大きな問題のために異なるデータセットを自然に組み合わせるのは問題で面倒です。
トレーニング中に異なるデータセットの異なるクラスと同じ人を扱うことは、バックプロパゲーションに影響します。
手動でラベルをクリーニングするには 人的努力が要る 特に何百万もの画像と何千ものIDがある時は
論文 参考訳(メタデータ) (2021-01-14T01:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。