論文の概要: Retrofit: Continual Learning with Bounded Forgetting for Security Applications
- arxiv url: http://arxiv.org/abs/2511.11439v1
- Date: Fri, 14 Nov 2025 16:07:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.710726
- Title: Retrofit: Continual Learning with Bounded Forgetting for Security Applications
- Title(参考訳): Retrofit: セキュリティアプリケーションのための境界設定による継続的学習
- Authors: Yiling He, Junchi Lei, Hongyu She, Shuo Shao, Xinran Zheng, Yiping Liu, Zhan Qin, Lorenzo Cavallaro,
- Abstract要約: 本稿では,データ振り返りのない連続学習手法であるRETROFITを提案する。
干渉を軽減するために、独立部分空間にパラメータ変化を限定する低ランクかつスパースな更新を適用する。
時間的ドリフト下でのマルウェア検出では、CLベースラインよりも20.2%から38.6%の保持スコアが大幅に向上し、新しいデータに対するオラクルの上限を超える。
- 参考スコア(独自算出の注目度): 25.185616916987158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern security analytics are increasingly powered by deep learning models, but their performance often degrades as threat landscapes evolve and data representations shift. While continual learning (CL) offers a promising paradigm to maintain model effectiveness, many approaches rely on full retraining or data replay, which are infeasible in data-sensitive environments. Moreover, existing methods remain inadequate for security-critical scenarios, facing two coupled challenges in knowledge transfer: preserving prior knowledge without old data and integrating new knowledge with minimal interference. We propose RETROFIT, a data retrospective-free continual learning method that achieves bounded forgetting for effective knowledge transfer. Our key idea is to consolidate previously trained and newly fine-tuned models, serving as teachers of old and new knowledge, through parameter-level merging that eliminates the need for historical data. To mitigate interference, we apply low-rank and sparse updates that confine parameter changes to independent subspaces, while a knowledge arbitration dynamically balances the teacher contributions guided by model confidence. Our evaluation on two representative applications demonstrates that RETROFIT consistently mitigates forgetting while maintaining adaptability. In malware detection under temporal drift, it substantially improves the retention score, from 20.2% to 38.6% over CL baselines, and exceeds the oracle upper bound on new data. In binary summarization across decompilation levels, where analyzing stripped binaries is especially challenging, RETROFIT achieves around twice the BLEU score of transfer learning used in prior work and surpasses all baselines in cross-representation generalization.
- Abstract(参考訳): 現代のセキュリティ分析は、ディープラーニングモデルによってますます強化されているが、脅威の風景が進化し、データ表現がシフトするにつれて、そのパフォーマンスは低下することが多い。
継続学習(CL)はモデルの有効性を維持するための有望なパラダイムを提供するが、多くのアプローチは、データに敏感な環境では不可能な、完全なリトレーニングやデータ再生に依存している。
さらに、既存の手法はセキュリティクリティカルなシナリオには相変わらず不適切であり、知識伝達における2つの課題に直面している。
本稿では,データ振り返りのない連続学習手法であるRETROFITを提案する。
私たちのキーとなるアイデアは、過去のデータを必要としないパラメータレベルのマージを通じて、古い知識と新しい知識の教師として機能する、以前に訓練された、新しく調整されたモデルを統合することです。
干渉を軽減するために,パラメータを独立部分空間に限定する低ランク・スパース更新を適用し,知識調停はモデル信頼度によって導かれる教師の貢献を動的にバランスさせる。
代表的な2つのアプリケーションに対する評価は、RETROFITが適応性を維持しながら、常に忘れを軽減していることを示している。
時間的ドリフト下でのマルウェア検出では、CLベースラインよりも20.2%から38.6%の保持スコアが大幅に向上し、新しいデータに対するオラクルの上限を超える。
取り除かれたバイナリを解析するバイナリの要約は特に難しいが、RETROFITは、事前の作業で使用される変換学習のBLEUスコアの約2倍を達成し、クロス表現の一般化においてすべてのベースラインを超える。
関連論文リスト
- CSTA: Spatial-Temporal Causal Adaptive Learning for Exemplar-Free Video Class-Incremental Learning [62.69917996026769]
クラスインクリメンタルな学習課題は、空間的外観と時間的行動の関与の両方を学習し、保存することを必要とする。
本稿では,各クラス固有のインクリメンタル情報要件を調整し,新しいクラスパターンを学習するためのアダプタを分離するフレームワークを提案する。
異なる種類の情報間のインクリメントと記憶の衝突を減らすために,因果補償機構を提案する。
論文 参考訳(メタデータ) (2025-01-13T11:34:55Z) - DESIRE: Dynamic Knowledge Consolidation for Rehearsal-Free Continual Learning [23.878495627964146]
連続学習は、人間のような以前に学習された知識を保持する能力をモデルに装備することを目的としている。
既存の手法は通常、実験データが事前訓練されたモデルで使用されているという事実によって引き起こされる情報漏洩の問題を見落としている。
本稿では,ロラをベースとした新たなリハーサルフリー手法DESIREを提案する。
論文 参考訳(メタデータ) (2024-11-28T13:54:01Z) - Temporal-Difference Variational Continual Learning [77.92320830700797]
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
提案手法は, 変分CL法より優れたカタストロフィックフォーミングを効果的に緩和する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。