論文の概要: IDER: IDempotent Experience Replay for Reliable Continual Learning
- arxiv url: http://arxiv.org/abs/2603.00624v2
- Date: Tue, 03 Mar 2026 06:15:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 14:54:12.536733
- Title: IDER: IDempotent Experience Replay for Reliable Continual Learning
- Title(参考訳): IDER: 信頼性のある継続的学習のための識別可能な体験リプレイ
- Authors: Zhanwang Liu, Yuting Li, Haoyuan Gao, Yexin Li, Linghe Kong, Lichao Sun, Weiran Huang,
- Abstract要約: 破滅的忘れは継続学習(CL)における大きな課題である
既存の不確実性を考慮したCL法は、計算オーバーヘッドが高く、主流の再生法と相容れない。
本稿では、繰り返し関数が同じ出力を出力する等等性性に基づく新しいアプローチである、等等性体験再生(IDER)を提案する。
- 参考スコア(独自算出の注目度): 36.35747221992653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Catastrophic forgetting, the tendency of neural networks to forget previously learned knowledge when learning new tasks, has been a major challenge in continual learning (CL). To tackle this challenge, CL methods have been proposed and shown to reduce forgetting. Furthermore, CL models deployed in mission-critical settings can benefit from uncertainty awareness by calibrating their predictions to reliably assess their confidences. However, existing uncertainty-aware continual learning methods suffer from high computational overhead and incompatibility with mainstream replay methods. To address this, we propose idempotent experience replay (IDER), a novel approach based on the idempotent property where repeated function applications yield the same output. Specifically, we first adapt the training loss to make model idempotent on current data streams. In addition, we introduce an idempotence distillation loss. We feed the output of the current model back into the old checkpoint and then minimize the distance between this reprocessed output and the original output of the current model. This yields a simple and effective new baseline for building reliable continual learners, which can be seamlessly integrated with other CL approaches. Extensive experiments on different CL benchmarks demonstrate that IDER consistently improves prediction reliability while simultaneously boosting accuracy and reducing forgetting. Our results suggest the potential of idempotence as a promising principle for deploying efficient and trustworthy continual learning systems in real-world applications.Our code is available at https://github.com/YutingLi0606/Idempotent-Continual-Learning.
- Abstract(参考訳): ニューラルネットワークが新しいタスクを学ぶ際に学習した知識を忘れる傾向にある破滅的な忘れ物は、継続学習(CL)において大きな課題となっている。
この課題に対処するため、CL法が提案され、忘れを減らすことが示されている。
さらに、ミッションクリティカルな環境でデプロイされたCLモデルは、予測を調整し、信頼性を確実に評価することで、不確実性認識の恩恵を受けることができる。
しかし、既存の不確実性を考慮した連続学習手法は、計算オーバーヘッドが高く、主流の再生法と相容れない。
そこで我々は,繰り返し関数が同じ出力を出力する等等性特性に基づく新しい手法である,等等性体験再生(IDER)を提案する。
具体的には、トレーニング損失に適応して、現在のデータストリームにモデル等等性を持たせる。
また,イデオロペンス蒸留損失も導入した。
我々は、現在のモデルの出力を古いチェックポイントに戻し、この再処理された出力と現在のモデルの元の出力との距離を最小化する。
これにより、信頼性の高い連続学習者を構築するためのシンプルで効果的な新しいベースラインが得られ、他のCLアプローチとシームレスに統合できる。
CLベンチマークの大規模な実験により、IDERは予測信頼性を常に改善し、同時に精度を向上し、忘れを少なくすることを示した。
我々のコードはhttps://github.com/YutingLi0606/Idempotent-Continual-Learningで公開されている。
関連論文リスト
- Forget Less, Retain More: A Lightweight Regularizer for Rehearsal-Based Continual Learning [51.07663354001582]
ディープニューラルネットワークは破滅的な忘れ込みに悩まされ、新しいタスクのトレーニング後に以前のタスクのパフォーマンスが低下する。
本稿では,メモリベースの手法と正規化手法の交わりに着目し,この問題に対処する新しいアプローチを提案する。
我々は、メモリベース連続学習法において、情報最大化(IM)正則化と呼ばれる正規化戦略を定式化する。
論文 参考訳(メタデータ) (2025-12-01T15:56:00Z) - LaSeR: Reinforcement Learning with Last-Token Self-Rewarding [54.72617309922891]
RLVR(Reinforcement Learning with Verifiable Rewards)は、Large Language Models(LLM)の推論能力を高めるためのコアパラダイムとして登場した。
従来、LLMは2つの異なるプロンプトテンプレートを使用してソリューションと自己検証をシーケンシャルに生成し、効率を大幅に低下させる必要があった。
本稿では,従来のRLVR損失をMSE損失で増大させるアルゴリズムであるLaSeR(Reinforcement Learning with Last-Token Self-Rewarding)を提案する。
論文 参考訳(メタデータ) (2025-10-16T17:55:11Z) - Value Function Initialization for Knowledge Transfer and Jump-start in Deep Reinforcement Learning [0.0]
本稿では,価値関数の初期化を深層強化学習に適用するDQInitを紹介する。
DQInitは、以前に解決されたタスクから抽出されたコンパクトQ値を転送可能な知識ベースとして再利用する。
知識に基づくメカニズムを用いて、これらの伝達された値を未探索領域にソフトに統合し、徐々にエージェントの学習された推定値にシフトする。
論文 参考訳(メタデータ) (2025-08-12T18:32:08Z) - ACU: Analytic Continual Unlearning for Efficient and Exact Forgetting with Privacy Preservation [39.0731790601695]
連続的アンラーニング(CU)は、連続的学習フェーズで取得した特定の知識を逐次忘れることを目的としている。
既存の未学習メソッドの多くは、再トレーニングや微調整のために保持されたデータセットにアクセスする必要がある。
本稿では,ACU (Analytic Continual Unlearning) と呼ばれるCUの勾配のない新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-18T05:28:18Z) - CARIL: Confidence-Aware Regression in Imitation Learning for Autonomous Driving [0.0]
エンドツーエンドの視覚に基づく模倣学習は、自動運転の有望な結果を証明している。
従来のアプローチでは、正確な制御を提供するレグレッションベースモデルと、信頼性スコアを提供するが、離散化による精度の低下に悩まされる分類ベースモデルのいずれかに依存している。
我々は、回帰と分類の両ヘッドを統合したデュアルヘッドニューラルネットワークアーキテクチャを導入し、模倣学習における決定信頼性を向上させる。
論文 参考訳(メタデータ) (2025-03-02T08:19:02Z) - Accurate Forgetting for Heterogeneous Federated Continual Learning [89.08735771893608]
提案手法は,フェデレーションネットワークにおける従来の知識を選択的に活用する新しい生成再生手法である。
我々は,従来の知識の信頼性を定量化するために,正規化フローモデルに基づく確率的フレームワークを用いる。
論文 参考訳(メタデータ) (2025-02-20T02:35:17Z) - An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - Temporal-Difference Variational Continual Learning [77.92320830700797]
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
提案手法は, 変分CL法より優れたカタストロフィックフォーミングを効果的に緩和する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - CBA: Improving Online Continual Learning via Continual Bias Adaptor [44.1816716207484]
本稿では,学習中の破滅的な分布変化に対応するために,分類器ネットワークを増強する連続バイアス適応器を提案する。
テスト段階では、CBAを削除できるため、追加のコストとメモリオーバーヘッドは発生しない。
提案手法が破滅的な分布変化を効果的に軽減できる理由を理論的に明らかにする。
論文 参考訳(メタデータ) (2023-08-14T04:03:51Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。