論文の概要: Disentangling and Mitigating the Impact of Task Similarity for Continual Learning
- arxiv url: http://arxiv.org/abs/2405.20236v1
- Date: Thu, 30 May 2024 16:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 13:19:40.105623
- Title: Disentangling and Mitigating the Impact of Task Similarity for Continual Learning
- Title(参考訳): 連続学習における課題類似性の影響の解消と軽減
- Authors: Naoki Hiratani,
- Abstract要約: 部分的に類似したタスクの継続的な学習は、人工知能ニューラルネットワークの課題となる。
高い入力特徴類似性と低い読み出し類似性は、知識伝達と保持の両方において破滅的である。
フィッシャー情報量に基づく重み正規化は,タスクの類似性にかかわらず,保持率を著しく向上させる。
- 参考スコア(独自算出の注目度): 1.3597551064547502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning of partially similar tasks poses a challenge for artificial neural networks, as task similarity presents both an opportunity for knowledge transfer and a risk of interference and catastrophic forgetting. However, it remains unclear how task similarity in input features and readout patterns influences knowledge transfer and forgetting, as well as how they interact with common algorithms for continual learning. Here, we develop a linear teacher-student model with latent structure and show analytically that high input feature similarity coupled with low readout similarity is catastrophic for both knowledge transfer and retention. Conversely, the opposite scenario is relatively benign. Our analysis further reveals that task-dependent activity gating improves knowledge retention at the expense of transfer, while task-dependent plasticity gating does not affect either retention or transfer performance at the over-parameterized limit. In contrast, weight regularization based on the Fisher information metric significantly improves retention, regardless of task similarity, without compromising transfer performance. Nevertheless, its diagonal approximation and regularization in the Euclidean space are much less robust against task similarity. We demonstrate consistent results in a permuted MNIST task with latent variables. Overall, this work provides insights into when continual learning is difficult and how to mitigate it.
- Abstract(参考訳): 部分的に類似したタスクの継続的な学習は、タスク類似性が知識伝達の機会と干渉のリスクと破滅的な忘れのリスクの両方を示すため、人工知能ニューラルネットワークにとって課題となる。
しかし、入力特徴と読み出しパターンのタスク類似性が知識伝達や忘れに及ぼす影響や、継続学習のための共通アルゴリズムとどのように相互作用するかは、まだ不明である。
そこで我々は,潜在構造を持つ線形教師学生モデルを開発し,高い入力特徴類似性と低読み出し類似性は,知識伝達と保持の両方において破滅的であることを解析的に示す。
逆に、反対のシナリオは比較的良性である。
さらに,タスク依存的活動ゲーティングは,伝達を犠牲にして知識保持を改善する一方で,タスク依存的塑性ゲーティングは,過パラメータ化限界における保持や伝達性能に影響を与えないことを明らかにした。
対照的に、フィッシャー情報量に基づく重み規則化は、伝達性能を損なうことなく、タスクの類似性にかかわらず、保持性を著しく改善する。
それでも、ユークリッド空間における対角近似と正則化は、タスク類似性に対してはるかに堅牢ではない。
我々は、潜伏変数を持つ不変なMNISTタスクにおいて、一貫した結果を示す。
全体として、この研究は、継続的学習が難しい時期と、それを緩和する方法に関する洞察を提供する。
関連論文リスト
- Enabling Asymmetric Knowledge Transfer in Multi-Task Learning with Self-Auxiliaries [4.031100721019478]
本研究では,知識伝達が他者の学習を妨げることなく,特定のタスクの学習を支援する非対称なタスク関係について検討する。
本研究では,非対称にタスク間の知識を柔軟に伝達する学習プロセスに,自己辞書と呼ばれる追加のクローンタスクを含む最適化戦略を提案する。
非対称な知識伝達は、ベンチマークコンピュータビジョン問題における既存のマルチタスク最適化戦略と比較して、性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-21T10:57:25Z) - Mitigate Negative Transfer with Similarity Heuristic Lifelong Prompt Tuning [26.949872705635084]
本稿では,Simisity Heuristic Lifelong Prompt Tuning(SH)フレームワークを提案する。
SHは、学習可能な類似度メトリックを利用することで、タスクを2つの異なるサブセットに分割する。
実験の結果,SHは生涯学習ベンチマークにおいて最先端技術よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-06-18T03:57:49Z) - Similarity-based Knowledge Transfer for Cross-Domain Reinforcement
Learning [3.3148826359547523]
我々は,エンコーダ・デコーダのセットを用いて,異なる空間に適合する半教師付きアライメント損失を開発する。
従来の手法と比較して、我々の手法は専門家のポリシーによって整列、ペア化、あるいは収集されるデータを必要としない。
論文 参考訳(メタデータ) (2023-12-05T19:26:01Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - On Neural Consolidation for Transfer in Reinforcement Learning [4.129225533930966]
本稿では, ネットワーク蒸留を特徴抽出法として活用し, 伝達のコンテキストをよりよく理解する。
蒸留では,複数タスクから新しいタスクへの移動を含む知識伝達が防止されないことを示す。
論文 参考訳(メタデータ) (2022-10-05T13:18:47Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Understanding Contrastive Learning Requires Incorporating Inductive
Biases [64.56006519908213]
下流タスクにおけるコントラスト学習の成功を理論的に説明しようとする最近の試みは、エム強化の特性とエムコントラスト学習の損失の値によって保証が証明されている。
このような分析は,関数クラスやトレーニングアルゴリズムの帰納的バイアスを無視し,いくつかの設定において不確実な保証につながることを実証する。
論文 参考訳(メタデータ) (2022-02-28T18:59:20Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Continual Learning in the Teacher-Student Setup: Impact of Task
Similarity [5.1135133995376085]
教師-学生設定における2層ネットワークにおける破滅的忘れについて検討する。
タスクが類似した機能に依存する場合、中間タスクの類似性が最大の忘れ物となる。
両者の類似性、初期転送/鍛造率、最大転送/鍛造率、長期転送/鍛造率の複雑な相互作用を見出した。
論文 参考訳(メタデータ) (2021-07-09T12:30:39Z) - Bridging the Imitation Gap by Adaptive Insubordination [88.35564081175642]
教官が特権情報にアクセスして意思決定を行う場合、この情報は模倣学習中に疎外されることを示す。
本稿では,このギャップに対処するため,適応的不規則化(ADVISOR)を提案する。
ADVISORは、トレーニング中の模倣と報酬に基づく強化学習損失を動的に重み付け、模倣と探索をオンザフライで切り替えることを可能にする。
論文 参考訳(メタデータ) (2020-07-23T17:59:57Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。