論文の概要: Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain
- arxiv url: http://arxiv.org/abs/2006.12323v3
- Date: Sat, 12 Dec 2020 17:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:20:06.970335
- Title: Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain
- Title(参考訳): 自動リコールマシン:内部リプレイ,継続的な学習,脳
- Authors: Xu Ji, Joao Henriques, Tinne Tuytelaars, Andrea Vedaldi
- Abstract要約: ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
- 参考スコア(独自算出の注目度): 104.38824285741248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Replay in neural networks involves training on sequential data with memorized
samples, which counteracts forgetting of previous behavior caused by
non-stationarity. We present a method where these auxiliary samples are
generated on the fly, given only the model that is being trained for the
assessed objective, without extraneous buffers or generator networks. Instead
the implicit memory of learned samples within the assessed model itself is
exploited. Furthermore, whereas existing work focuses on reinforcing the full
seen data distribution, we show that optimizing for not forgetting calls for
the generation of samples that are specialized to each real training batch,
which is more efficient and scalable. We consider high-level parallels with the
brain, notably the use of a single model for inference and recall, the
dependency of recalled samples on the current environment batch, top-down
modulation of activations and learning, abstract recall, and the dependency
between the degree to which a task is learned and the degree to which it is
recalled. These characteristics emerge naturally from the method without being
controlled for.
- Abstract(参考訳): ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
評価対象に対してトレーニングされているモデルのみを考慮し,外部バッファやジェネレータネットワークを必要とせずに,これらの補助サンプルをフライで生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用される。
さらに,既存の研究では全データ分散の強化に重点を置いているが,本番のトレーニングバッチに特化しているサンプル生成の呼び出しを忘れることなく最適化する方が効率的でスケーラブルであることを示す。
我々は,脳との高レベルな並列性,特に単一モデルを用いた推論とリコール,現在の環境バッチへのリコールサンプルの依存性,アクティベーションと学習のトップダウン変調,抽象的リコール,タスクが学習された度数とリコールされる度数との依存性について考察する。
これらの特徴は制御されずに自然に現れる。
関連論文リスト
- Distribution-Level Feature Distancing for Machine Unlearning: Towards a Better Trade-off Between Model Utility and Forgetting [4.220336689294245]
近年の研究では、トレーニングされたモデルを忘れるべきデータを学習させるために、さまざまな機械学習アルゴリズムが提案されている。
本稿では,相関崩壊を防止しつつ,効率よくインスタンスを忘れる新しい手法であるDLFDを提案する。
提案手法はデータサンプルを合成し,生成したデータ分布が特徴空間で忘れられているサンプルの分布から遠ざかるようにする。
論文 参考訳(メタデータ) (2024-09-23T06:51:10Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Generator Born from Classifier [66.56001246096002]
データサンプルに頼ることなく、イメージジェネレータを再構築することを目指している。
本稿では,ネットワークパラメータの収束条件を満たすために,ジェネレータを訓練する新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-05T03:41:17Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Selective Memory Recursive Least Squares: Recast Forgetting into Memory
in RBF Neural Network Based Real-Time Learning [2.31120983784623]
放射ベース関数ニューラルネットワーク(RBFNN)に基づくリアルタイム学習タスクでは、忘れるメカニズムが広く使用されている。
本稿では,従来の記憶機構を記憶機構に再キャストする選択記憶再帰最小二乗法(SMRLS)を提案する。
SMRLSでは、RBFNNの入力空間を有限個の分割に均等に分割し、各分割から合成されたサンプルを用いて合成目的関数を開発する。
論文 参考訳(メタデータ) (2022-11-15T05:29:58Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Logarithmic Continual Learning [11.367079056418957]
本稿では、連続学習モデルの生成的リハーサルにおける自己リハーサルステップの数を対数的に減少させるニューラルネットワークアーキテクチャを提案する。
継続学習(CL)では、トレーニングサンプルがその後のタスクに反映され、トレーニングされたモデルが一度に1つのタスクにしかアクセスできない。
論文 参考訳(メタデータ) (2022-01-17T17:29:16Z) - Learning Curves for Sequential Training of Neural Networks:
Self-Knowledge Transfer and Forgetting [9.734033555407406]
我々は,タスクからタスクまでの目標関数を継続的に学習するニューラルネットワークをニューラルネットワークとして検討する。
モデルが複数のタスクで同じターゲット関数を学習する連続学習の変種について検討する。
同じターゲットであっても、トレーニングされたモデルは、各タスクのサンプルサイズに応じて、何らかの転送と忘れを見せる。
論文 参考訳(メタデータ) (2021-12-03T00:25:01Z) - Deep Active Learning in Remote Sensing for data efficient Change
Detection [26.136331738529243]
本研究では、変化検出とマップ更新のための深層ニューラルネットワークモデルの文脈におけるアクティブラーニングについて検討する。
アクティブな学習では、最小限のトレーニング例から始まり、ユーザによって注釈付けされた情報的サンプルを徐々に選択する。
能動学習は,高い情報的サンプルの発見に成功し,自動的にトレーニング分布のバランスをとることを示す。
論文 参考訳(メタデータ) (2020-08-25T17:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。