論文の概要: Learning with Recoverable Forgetting
- arxiv url: http://arxiv.org/abs/2207.08224v1
- Date: Sun, 17 Jul 2022 16:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 05:26:50.404319
- Title: Learning with Recoverable Forgetting
- Title(参考訳): 回復可能な忘れることによる学習
- Authors: Jingwen Ye, Yifang Fu, Jie Song, Xingyi Yang, Songhua Liu, Xin Jin,
Mingli Song, Xinchao Wang
- Abstract要約: 学習wIth Recoverable Forgettingは、タスクまたはサンプル固有の知識の除去とリカバリを明示的に処理する。
具体的には、LIRFは2つの革新的なスキーム、すなわち知識預金と離脱をもたらす。
いくつかのデータセットで実験を行い、提案したLIRF戦略が一般化能力を満足させる結果をもたらすことを示す。
- 参考スコア(独自算出の注目度): 77.56338597012927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Life-long learning aims at learning a sequence of tasks without forgetting
the previously acquired knowledge. However, the involved training data may not
be life-long legitimate due to privacy or copyright reasons. In practical
scenarios, for instance, the model owner may wish to enable or disable the
knowledge of specific tasks or specific samples from time to time. Such
flexible control over knowledge transfer, unfortunately, has been largely
overlooked in previous incremental or decremental learning methods, even at a
problem-setup level. In this paper, we explore a novel learning scheme, termed
as Learning wIth Recoverable Forgetting (LIRF), that explicitly handles the
task- or sample-specific knowledge removal and recovery. Specifically, LIRF
brings in two innovative schemes, namely knowledge deposit and withdrawal,
which allow for isolating user-designated knowledge from a pre-trained network
and injecting it back when necessary. During the knowledge deposit process, the
specified knowledge is extracted from the target network and stored in a
deposit module, while the insensitive or general knowledge of the target
network is preserved and further augmented. During knowledge withdrawal, the
taken-off knowledge is added back to the target network. The deposit and
withdraw processes only demand for a few epochs of finetuning on the removal
data, ensuring both data and time efficiency. We conduct experiments on several
datasets, and demonstrate that the proposed LIRF strategy yields encouraging
results with gratifying generalization capability.
- Abstract(参考訳): 生涯学習は、以前獲得した知識を忘れずに一連のタスクを学習することを目的としている。
しかしながら、プライバシや著作権上の理由から、関連するトレーニングデータは生涯正当ではない可能性がある。
例えば、実際のシナリオでは、モデルオーナーは特定のタスクや特定のサンプルの知識を時々有効または無効にしたいかもしれません。
このような知識伝達に対する柔軟な制御は、残念ながら、従来の漸進的あるいは退行的な学習手法では、問題設定レベルでも、ほとんど見過ごされてきた。
本稿では,タスクやサンプル固有の知識の除去と回復を明示的に処理する新しい学習手法であるLearning wIth Recoverable Forgetting(LIRF)について検討する。
具体的には、LIRFは2つの革新的なスキーム、すなわち知識の蓄積と離脱をもたらし、事前訓練されたネットワークからユーザー指定の知識を分離し、必要に応じてそれを注入することができる。
知識蓄積プロセス中は、特定知識を対象ネットワークから抽出して預金モジュールに格納し、対象ネットワークの非感性又は一般知識を保存し、さらに増強する。
知識の引き出しの間、テイクオフの知識がターゲットネットワークに追加される。
デポジットとデポジットのプロセスは、削除データに対する微調整のほんの数エポックしか要求せず、データと時間効率の両立が保証される。
いくつかのデータセットで実験を行い、提案したLIRF戦略が一般化能力を満足させる結果をもたらすことを示す。
関連論文リスト
- Extracting Unlearned Information from LLMs with Activation Steering [46.16882599881247]
トレーニング後のモデルからセンシティブな知識を取り除くソリューションとして、アンラーニングが登場した。
本研究では,未学習モデルからの正確な情報検索手法として,アクティベーションステアリングを提案する。
その結果,未学習モデルからの正確な情報検索が可能であることが示され,現在の未学習手法の深刻な脆弱性が浮き彫りにされている。
論文 参考訳(メタデータ) (2024-11-04T21:42:56Z) - Hierarchical Prompts for Rehearsal-free Continual Learning [67.37739666753008]
継続的な学習は、過去のタスク知識の忘れを軽減しつつ、現在のタスク知識を統合する能力をモデルに装備する。
プロンプトチューニングによってインスパイアされたプロンプトベースのメソッドは、凍結したバックボーンを維持し、わずかに学習可能なプロンプトでトレーニングする。
本稿では,H-Prompts(H-Prompts)と呼ばれる連続学習のための新しいリハーサルフリーパラダイムを提案する。
論文 参考訳(メタデータ) (2024-01-21T16:59:44Z) - Learning to Retain while Acquiring: Combating Distribution-Shift in
Adversarial Data-Free Knowledge Distillation [31.294947552032088]
データフリーな知識蒸留(DFKD)は、教師から学生ニューラルネットワークへの知識伝達を、訓練データがない状態で行うという基本的な考え方により、近年人気を集めている。
本稿では,メタトレインとメタテストとして,知識獲得(新たに生成されたサンプルからの学習)と知識保持(以前に得られたサンプルの知識の保持)の課題を取り扱うことで,メタ学習にインスパイアされたフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-28T03:50:56Z) - Beyond Not-Forgetting: Continual Learning with Backward Knowledge
Transfer [39.99577526417276]
継続学習(CL)では、エージェントは、新しいタスクと古いタスクの両方の学習性能を向上させることができる。
既存のCL手法の多くは、古いタスクに対する学習モデルの修正を最小化することによって、ニューラルネットワークの破滅的な忘れに対処することに焦点を当てている。
データ再生のない固定容量ニューラルネットワークに対して,バックワードノウルEdge tRansfer (CUBER) を用いた新しいCL法を提案する。
論文 参考訳(メタデータ) (2022-11-01T23:55:51Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - Preserving Earlier Knowledge in Continual Learning with the Help of All
Previous Feature Extractors [63.21036904487014]
時間とともに新しい知識の継続的な学習は、インテリジェントシステムがより多くのオブジェクトのクラスを認識するのに望ましい能力の1つである。
これまでに学んだすべての特徴抽出器をインテリジェントモデルに組み込むことで、シンプルで効果的な融合メカニズムを提案します。
複数の分類タスクの実験により,提案手法は従来の知識の忘れを効果的に減らし,最先端の継続的学習性能を達成できることが示されている。
論文 参考訳(メタデータ) (2021-04-28T07:49:24Z) - Data-free Knowledge Distillation for Segmentation using Data-Enriching
GAN [0.0]
データフリー環境で知識蒸留を行うための新しいトレーニングフレームワークを提案する。
これまでのアプローチよりも6.93%改善しています。
論文 参考訳(メタデータ) (2020-11-02T08:16:42Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。