論文の概要: Fortuitous Forgetting in Connectionist Networks
- arxiv url: http://arxiv.org/abs/2202.00155v1
- Date: Tue, 1 Feb 2022 00:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 13:51:49.659601
- Title: Fortuitous Forgetting in Connectionist Networks
- Title(参考訳): コネクショニストネットワークにおける幸運な期待
- Authors: Hattie Zhou, Ankit Vani, Hugo Larochelle, Aaron Courville
- Abstract要約: 我々は,ニューラルネットワークの学習軌跡を形成するための強力なパラダイムとして,"forget-and-relearn"を紹介した。
forget-and-relearnフレームワークは、画像分類と言語出現文学において、多くの既存の反復的トレーニングアルゴリズムを統合する。
我々は、この理解を活用して、よりターゲットを絞った忘れ操作を設計することで、既存のアルゴリズムを改善する。
- 参考スコア(独自算出の注目度): 20.206607130719696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forgetting is often seen as an unwanted characteristic in both human and
machine learning. However, we propose that forgetting can in fact be favorable
to learning. We introduce "forget-and-relearn" as a powerful paradigm for
shaping the learning trajectories of artificial neural networks. In this
process, the forgetting step selectively removes undesirable information from
the model, and the relearning step reinforces features that are consistently
useful under different conditions. The forget-and-relearn framework unifies
many existing iterative training algorithms in the image classification and
language emergence literature, and allows us to understand the success of these
algorithms in terms of the disproportionate forgetting of undesirable
information. We leverage this understanding to improve upon existing algorithms
by designing more targeted forgetting operations. Insights from our analysis
provide a coherent view on the dynamics of iterative training in neural
networks and offer a clear path towards performance improvements.
- Abstract(参考訳): 忘れることはしばしば、人間と機械学習の両方において望ましくない特徴と見なされる。
しかし,本研究では,忘れることが学習に有利なことを提案する。
ニューラルネットワークの学習軌跡を形作るための強力なパラダイムとして,"forget-and-relearn"を導入する。
この過程で、忘れるステップは、モデルから好ましくない情報を選択的に取り除き、再学習ステップは、異なる条件下で一貫して有用な特徴を補強する。
このフレームワークは,画像分類や言語出現文献において,既存の反復学習アルゴリズムを統一し,望ましくない情報の忘れ方の観点から,これらのアルゴリズムの成功を理解することができる。
我々は、この理解を利用して既存のアルゴリズムを改善する。
私たちの分析から得られた洞察は、ニューラルネットワークにおける反復的トレーニングのダイナミクスに関するコヒーレントな見解を提供し、パフォーマンス改善に向けた明確な道筋を提供する。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Continual Learning with Deep Streaming Regularized Discriminant Analysis [0.0]
本稿では,この課題に対する解決法として,正規化判別分析のストリーミング版を提案する。
アルゴリズムを畳み込みニューラルネットワークと組み合わせて、バッチ学習と既存のストリーミング学習アルゴリズムよりも優れていることを実証します。
論文 参考訳(メタデータ) (2023-09-15T12:25:42Z) - Understanding Self-Predictive Learning for Reinforcement Learning [61.62067048348786]
強化学習のための自己予測学習の学習ダイナミクスについて検討する。
本稿では,2つの表現を同時に学習する新しい自己予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-06T20:43:37Z) - Being Friends Instead of Adversaries: Deep Networks Learn from Data
Simplified by Other Networks [23.886422706697882]
フレンドリートレーニング(Friendly Training)は、自動的に推定される摂動を追加することで入力データを変更するものである。
本稿では,ニューラルネットワークの有効性に触発されて,このアイデアを再考し,拡張する。
本稿では,入力データの変更に責任を負う補助的な多層ネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-18T16:59:35Z) - Wide Neural Networks Forget Less Catastrophically [39.907197907411266]
ニューラルネットワークアーキテクチャの"幅"が破滅的忘れに及ぼす影響について検討する。
ネットワークの学習力学を様々な観点から研究する。
論文 参考訳(メタデータ) (2021-10-21T23:49:23Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Self-Adaptive Training: Bridging the Supervised and Self-Supervised
Learning [16.765461276790944]
自己適応型トレーニングは、追加の計算コストを課すことなく、モデル予測によってトレーニングプロセスを動的にキャリブレーションし、強化する統一型トレーニングアルゴリズムです。
ランダムノイズや敵対的な例など、破損したトレーニングデータの深層ネットワークのトレーニングダイナミクスを分析します。
分析の結果, モデル予測はデータ中の有用な情報量を拡大することが可能であり, 強調ラベル情報がない場合にも広く発生することがわかった。
論文 参考訳(メタデータ) (2021-01-21T17:17:30Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。