論文の概要: A Theory for Knowledge Transfer in Continual Learning
- arxiv url: http://arxiv.org/abs/2208.06931v1
- Date: Sun, 14 Aug 2022 22:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:20:50.149031
- Title: A Theory for Knowledge Transfer in Continual Learning
- Title(参考訳): 連続学習における知識伝達の理論
- Authors: Diana Benavides-Prado and Patricia Riddle
- Abstract要約: タスクの継続的な学習は、ディープニューラルネットワークの活発な領域である。
最近の研究は、新しいタスクへのフォワード・ナレッジ・トランスファーについて研究している。
連続的な教師付き学習における知識伝達の理論を提案する。
- 参考スコア(独自算出の注目度): 7.056222499095849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning of a stream of tasks is an active area in deep neural
networks. The main challenge investigated has been the phenomenon of
catastrophic forgetting or interference of newly acquired knowledge with
knowledge from previous tasks. Recent work has investigated forward knowledge
transfer to new tasks. Backward transfer for improving knowledge gained during
previous tasks has received much less attention. There is in general limited
understanding of how knowledge transfer could aid tasks learned continually. We
present a theory for knowledge transfer in continual supervised learning, which
considers both forward and backward transfer. We aim at understanding their
impact for increasingly knowledgeable learners. We derive error bounds for each
of these transfer mechanisms. These bounds are agnostic to specific
implementations (e.g. deep neural networks). We demonstrate that, for a
continual learner that observes related tasks, both forward and backward
transfer can contribute to an increasing performance as more tasks are
observed.
- Abstract(参考訳): タスクストリームの継続的な学習は、ディープニューラルネットワークの活発な領域である。
研究の主な課題は、それまでの課題から得た知識を忘れることや、新たに獲得した知識を妨げてしまう現象である。
最近の研究で、新しいタスクへの知識の転送が研究されている。
以前のタスクで得た知識を改善するための後方移動は、あまり注目されていない。
一般的に、知識伝達が継続的に学習するタスクをどのように支援できるかの理解は限られている。
本稿では,前向きと後向きの両方を考慮した連続的教師付き学習における知識伝達の理論を提案する。
より知識のある学習者に対する彼らの影響を理解することを目的としている。
これらの伝達機構毎に誤差境界を導出する。
これらの境界は特定の実装(ディープニューラルネットワークなど)に依存しない。
我々は,関連するタスクを観察する継続学習者に対して,さらに多くのタスクが観察されるにつれて,前方と後方の両方の移動がパフォーマンスの向上に寄与することを示す。
関連論文リスト
- Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - Is forgetting less a good inductive bias for forward transfer? [7.704064306361941]
本論では,タスクへの前方移動の尺度は,継続学習者に課される制約の影響を受けない,と論じる。
代わりに、フォワード転送は、以前のタスクで連続的な学習によって生成された表現のセットから新しいタスクを学ぶのがいかに簡単かによって測定されるべきである。
その結果, 忘れやすい表現は, 過去の情報保持と学習効率の相関関係が強いことを示唆し, 転送効率が向上することが示された。
論文 参考訳(メタデータ) (2023-03-14T19:52:09Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - Beyond Not-Forgetting: Continual Learning with Backward Knowledge
Transfer [39.99577526417276]
継続学習(CL)では、エージェントは、新しいタスクと古いタスクの両方の学習性能を向上させることができる。
既存のCL手法の多くは、古いタスクに対する学習モデルの修正を最小化することによって、ニューラルネットワークの破滅的な忘れに対処することに焦点を当てている。
データ再生のない固定容量ニューラルネットワークに対して,バックワードノウルEdge tRansfer (CUBER) を用いた新しいCL法を提案する。
論文 参考訳(メタデータ) (2022-11-01T23:55:51Z) - Learning with Recoverable Forgetting [77.56338597012927]
学習wIth Recoverable Forgettingは、タスクまたはサンプル固有の知識の除去とリカバリを明示的に処理する。
具体的には、LIRFは2つの革新的なスキーム、すなわち知識預金と離脱をもたらす。
いくつかのデータセットで実験を行い、提案したLIRF戦略が一般化能力を満足させる結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-07-17T16:42:31Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - AFEC: Active Forgetting of Negative Transfer in Continual Learning [37.03139674884091]
生物学的ニューラルネットワークは、新しい経験の学習と矛盾する古い知識を積極的に忘れることができることを示す。
生物の能動的忘れをきっかけに,新たな課題の学習を制限し,継続的な学習に役立てる古い知識を積極的に忘れることを提案する。
論文 参考訳(メタデータ) (2021-10-23T10:03:19Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - Learning Transferable Concepts in Deep Reinforcement Learning [0.7161783472741748]
感覚入力の離散的な表現を学習することで、複数のタスクに共通するハイレベルな抽象化が得られることを示す。
特に,情報理論のアプローチに従って,自己超越によってそのような表現を学習することは可能であることを示す。
本手法は, 未知タスクと未知タスクの両方において, サンプル効率を高めるための, 機関車および最適制御タスクの概念を学習することができる。
論文 参考訳(メタデータ) (2020-05-16T04:45:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。