論文の概要: LLEDA -- Lifelong Self-Supervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2211.09027v3
- Date: Mon, 7 Aug 2023 17:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 00:40:07.312083
- Title: LLEDA -- Lifelong Self-Supervised Domain Adaptation
- Title(参考訳): LLEDA -- 生涯の自己監督型ドメイン適応
- Authors: Mamatha Thota, Dewei Yi and Georgios Leontidis
- Abstract要約: 人間や動物は、これまで獲得した知識を失うことなく、生涯にわたって新しい情報を継続的に学習する能力を持っている。
新しい情報は古い知識と矛盾し、破滅的な忘れ物となる。
提案したLifelong Self-Supervised Domain Adaptation (LLEDA)フレームワークは、CLS理論からインスピレーションを得て、2つのネットワーク間の相互作用を模倣する。
LLEDAの潜時リプレイ技術は、過去のメモリ潜時表現を再活性化・再生することでこれらの2つのネットワーク間の通信を容易にし、学習した情報に干渉することなく長期の一般化と保持を安定化させる。
- 参考スコア(独自算出の注目度): 9.71137838903781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans and animals have the ability to continuously learn new information
over their lifetime without losing previously acquired knowledge. However,
artificial neural networks struggle with this due to new information
conflicting with old knowledge, resulting in catastrophic forgetting. The
complementary learning systems (CLS) theory suggests that the interplay between
hippocampus and neocortex systems enables long-term and efficient learning in
the mammalian brain, with memory replay facilitating the interaction between
these two systems to reduce forgetting. The proposed Lifelong Self-Supervised
Domain Adaptation (LLEDA) framework draws inspiration from the CLS theory and
mimics the interaction between two networks: a DA network inspired by the
hippocampus that quickly adjusts to changes in data distribution and an SSL
network inspired by the neocortex that gradually learns domain-agnostic general
representations. LLEDA's latent replay technique facilitates communication
between these two networks by reactivating and replaying the past memory latent
representations to stabilise long-term generalisation and retention without
interfering with the previously learned information. Extensive experiments
demonstrate that the proposed method outperforms several other methods
resulting in a long-term adaptation while being less prone to catastrophic
forgetting when transferred to new domains.
- Abstract(参考訳): 人間や動物は、これまで獲得した知識を失うことなく、生涯にわたって新しい情報を継続的に学習することができる。
しかし、ニューラルネットワークは古い知識と相反する新しい情報によってこの問題に苦しめられ、破滅的な忘れることになる。
補足学習システム(cls)理論は、海馬と新皮質のシステム間の相互作用によって、哺乳類の脳における長期かつ効率的な学習が可能になることを示唆している。
提案されている生涯の自己教師付きドメイン適応(lleda)フレームワークは、cls理論から着想を得て、2つのネットワーク間の相互作用を模倣している: 海馬に触発されたdaネットワークは、データ分散の変化に素早く適応し、新皮質に触発されたsslネットワークは、徐々にドメインに依存しない一般的な表現を学習する。
LLEDAの潜時リプレイ技術は、過去のメモリ潜時表現を再活性化し再生することでこれらの2つのネットワーク間の通信を容易にする。
大規模な実験により,提案手法は,新たな領域に移動した場合の破滅的な忘れ込みを抑えながら,長期適応を達成できることがわかった。
関連論文リスト
- Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - Learning Fast, Learning Slow: A General Continual Learning Method based
on Complementary Learning System [13.041607703862724]
本稿では,新しいデュアルメモリエクスペリエンス再生(ER)法であるCLS-ERを提案する。
決定境界を意味記憶と整合させながら、新たな知識を得る。
提案手法は,標準ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-01-29T15:15:23Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Overcome Anterograde Forgetting with Cycled Memory Networks [23.523768741540117]
Cycled Memory Networks (CMN) は、いくつかのタスク関連、タスク対応、クラス増分、クロスドメインベンチマークを忘れることに効果的に対処できる。
論文 参考訳(メタデータ) (2021-12-04T14:06:54Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z) - Learning to Learn with Feedback and Local Plasticity [9.51828574518325]
我々はメタラーニングを用いて、フィードバック接続と局所的、生物学的にインスパイアされた学習ルールを用いて学習するネットワークを発見する。
実験の結果, メタトレーニングネットワークは, 多層アーキテクチャにおけるオンラインクレジット割り当てにフィードバック接続を効果的に利用していることがわかった。
論文 参考訳(メタデータ) (2020-06-16T22:49:07Z) - Adaptive Reinforcement Learning through Evolving Self-Modifying Neural
Networks [0.0]
強化学習(RL)の現在の手法は、特定の時間間隔で反射した後にのみ新しい相互作用に適応する。
最近の研究は、バックプロパゲーションを用いて訓練された単純なRLタスクの性能を向上させるために、ニューラルネットワークに神経修飾塑性を付与することでこの問題に対処している。
ここでは,四足歩行におけるメタラーニングの課題について検討する。
その結果、自己修飾プラスチックネットワークを用いて進化したエージェントは、複雑なメタ学習タスクに適応し、グラデーションを使って更新された同じネットワークよりも優れていることが示される。
論文 参考訳(メタデータ) (2020-05-22T02:24:44Z) - Triple Memory Networks: a Brain-Inspired Method for Continual Learning [35.40452724755021]
ニューラルネットワークは、新しいタスクを学ぶ際にパラメータを調整するが、古いタスクをうまく実行できない。
脳は破滅的な干渉なしに新しい経験を継続的に学習する能力を持っている。
このような脳戦略に触発されて、連続学習のための三重記憶ネットワーク(TMN)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-06T11:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。