論文の概要: Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting
- arxiv url: http://arxiv.org/abs/2010.01528v2
- Date: Mon, 3 May 2021 03:26:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 02:56:02.784532
- Title: Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting
- Title(参考訳): 正しい理由を思い出す:破滅的な予測を減らした説明
- Authors: Sayna Ebrahimi, Suzanne Petryk, Akash Gokul, William Gan, Joseph E.
Gonzalez, Marcus Rohrbach, Trevor Darrell
- Abstract要約: 我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
- 参考スコア(独自算出の注目度): 100.75479161884935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of continual learning (CL) is to learn a sequence of tasks without
suffering from the phenomenon of catastrophic forgetting. Previous work has
shown that leveraging memory in the form of a replay buffer can reduce
performance degradation on prior tasks. We hypothesize that forgetting can be
further reduced when the model is encouraged to remember the \textit{evidence}
for previously made decisions. As a first step towards exploring this
hypothesis, we propose a simple novel training paradigm, called Remembering for
the Right Reasons (RRR), that additionally stores visual model explanations for
each example in the buffer and ensures the model has "the right reasons" for
its predictions by encouraging its explanations to remain consistent with those
used to make decisions at training time. Without this constraint, there is a
drift in explanations and increase in forgetting as conventional continual
learning algorithms learn new tasks. We demonstrate how RRR can be easily added
to any memory or regularization-based approach and results in reduced
forgetting, and more importantly, improved model explanations. We have
evaluated our approach in the standard and few-shot settings and observed a
consistent improvement across various CL approaches using different
architectures and techniques to generate model explanations and demonstrated
our approach showing a promising connection between explainability and
continual learning. Our code is available at
\url{https://github.com/SaynaEbrahimi/Remembering-for-the-Right-Reasons}.
- Abstract(参考訳): 連続学習(CL)の目的は、破滅的な忘れ込みの現象に悩まされることなく一連のタスクを学習することである。
以前の研究では、リプレイバッファの形でメモリを活用することで、以前のタスクのパフォーマンス低下を低減できることを示した。
我々は、モデルが以前に下された決定に対して \textit{evidence} を思い出すように促された場合、忘れ方がさらに小さくなると仮定する。
この仮説を探求するための第一歩として,我々は単純新奇なトレーニングパラダイムを提案する。re remembering for the right reason (rrr) と呼ばれるこのパラダイムは,バッファに各例の視覚的モデル説明を格納し,モデルの予測に対する"正しい理由"を持つことを保証する。
この制約がなければ、従来の連続学習アルゴリズムが新しいタスクを学習するにつれて、説明や忘れの量が増えます。
メモリや正規化に基づくアプローチでRRRを容易に追加できることを実証し,より重要なモデル説明の改善を実現した。
提案手法を標準および少数ショット設定で評価し,様々なアーキテクチャと手法を用いてCLアプローチを一貫した改良を行い,説明可能性と連続学習の有望な関連性を示す手法を実証した。
我々のコードは \url{https://github.com/SaynaEbrahimi/Remembering-for-the-Right-Reasons} で利用可能です。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Reason for Future, Act for Now: A Principled Framework for Autonomous
LLM Agents with Provable Sample Efficiency [53.8779374188643]
本稿では,推論と行動のオーケストレーションを行うための,証明可能な後悔の保証を備えた原則的枠組みを提案する。
具体的には、メモリバッファから学習する推論のためのプロンプトテンプレートを設計し、長い水平線上で将来の軌道を計画する。
各ステップにおいて、LLMエージェントは計画された軌跡の初期動作("act for now")を受け取り、収集したフィードバックをメモリバッファに格納し、推論ルーチンを再起動して、将来の軌跡を新しい状態から再設計する。
論文 参考訳(メタデータ) (2023-09-29T16:36:39Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Harnessing the Power of Explanations for Incremental Training: A
LIME-Based Approach [6.244905619201076]
この研究では、モデル説明がフィードフォワードトレーニングにフィードバックされ、モデルをより一般化するのに役立つ。
このフレームワークは、シーケンシャルなテストセットのパフォーマンスを維持するために、Elastic Weight Consolidation (EWC)によるカスタム重み付き損失を取り入れている。
提案したカスタムトレーニング手順は、インクリメンタルラーニングセットアップのすべてのフェーズにおいて、0.5%から1.5%までの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2022-11-02T18:16:17Z) - Learning an evolved mixture model for task-free continual learning [11.540150938141034]
タスク自由連続学習(TFCL)では,非定常データストリーム上で,明示的なタスク情報を持たないモデルを訓練する。
メモリ過負荷を回避するため,記憶されているサンプルを選択的に削除する2つの単純なドロップアウト機構を導入する。
論文 参考訳(メタデータ) (2022-07-11T16:01:27Z) - Decoupling Knowledge from Memorization: Retrieval-augmented Prompt
Learning [113.58691755215663]
一般化と記憶のバランスをとるためにRetroPromptを開発した。
バニラプロンプト学習とは対照的に、RetroPromptはトレーニングインスタンスからオープンブックナレッジストアを構築する。
大規模な実験により、RetroPromptは、数ショットとゼロショットの両方で、より良いパフォーマンスを得ることができることが示されている。
論文 参考訳(メタデータ) (2022-05-29T16:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。