論文の概要: Regression-aware Continual Learning for Android Malware Detection
- arxiv url: http://arxiv.org/abs/2507.18313v1
- Date: Thu, 24 Jul 2025 11:31:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.522168
- Title: Regression-aware Continual Learning for Android Malware Detection
- Title(参考訳): Androidマルウェア検出のための回帰認識連続学習
- Authors: Daniele Ghiani, Daniele Angioni, Giorgio Piras, Angelo Sotgiu, Luca Minnei, Srishti Gupta, Maura Pintor, Fabio Roli, Battista Biggio,
- Abstract要約: マルウェアは急速に進化し、機械学習(ML)ベースの検出器を継続的に適応させる。
継続的学習(CL)はスケーラブルな代替手段として登場し、完全なデータアクセスなしにインクリメンタルな更新を可能にする。
しかし、セキュリティレグレッションは、一度正しく検出されたが、モデル更新後の検出を回避したマルウェアサンプルのような、サンプルレベルでの有害な予測変更をキャプチャする。
CLをベースとしたマルウェア検知器のセキュリティレグレッションを形式化し,定量化し,その軽減を目的としたレグレッション・アウェア・ペナルティを提案する。
- 参考スコア(独自算出の注目度): 9.695692033183485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malware evolves rapidly, forcing machine learning (ML)-based detectors to adapt continuously. With antivirus vendors processing hundreds of thousands of new samples daily, datasets can grow to billions of examples, making full retraining impractical. Continual learning (CL) has emerged as a scalable alternative, enabling incremental updates without full data access while mitigating catastrophic forgetting. In this work, we analyze a critical yet overlooked issue in this context: security regression. Unlike forgetting, which manifests as a general performance drop on previously seen data, security regression captures harmful prediction changes at the sample level, such as a malware sample that was once correctly detected but evades detection after a model update. Although often overlooked, regressions pose serious risks in security-critical applications, as the silent reintroduction of previously detected threats in the system may undermine users' trust in the whole updating process. To address this issue, we formalize and quantify security regression in CL-based malware detectors and propose a regression-aware penalty to mitigate it. Specifically, we adapt Positive Congruent Training (PCT) to the CL setting, preserving prior predictive behavior in a model-agnostic manner. Experiments on the ELSA, Tesseract, and AZ-Class datasets show that our method effectively reduces regression across different CL scenarios while maintaining strong detection performance over time.
- Abstract(参考訳): マルウェアは急速に進化し、機械学習(ML)ベースの検出器を継続的に適応させる。
数十万の新しいサンプルを毎日処理するアンチウイルスベンダーによって、データセットは数十億のサンプルに成長し、完全な再トレーニングが不可能になる。
継続的学習(CL)はスケーラブルな代替手段として登場し、完全なデータアクセスなしにインクリメンタルな更新を可能にし、破滅的な忘れを軽減している。
この研究では、この文脈で重要で見過ごされた問題、すなわちセキュリティの回帰を分析します。
以前のデータに対する一般的なパフォーマンス低下として現れる忘れ物とは異なり、セキュリティレグレッションは、一度正しく検出されたが、モデル更新後の検出を回避したマルウェアサンプルのような、サンプルレベルで有害な予測変更をキャプチャする。
しばしば見過ごされるが、リグレッションはセキュリティクリティカルなアプリケーションに重大なリスクをもたらす。
この問題に対処するため,我々はCLベースのマルウェア検知器のセキュリティレグレッションを形式化し,定量化し,それを軽減するための回帰対応ペナルティを提案する。
具体的には,PCT(Positive Congruent Training)をCL設定に適用し,事前予測動作をモデルに依存しない形で保存する。
ELSA, Tesseract, AZ-Classデータセットを用いた実験では, 時間とともに強い検出性能を維持しながら, 異なるCLシナリオ間での回帰を効果的に低減できることが示されている。
関連論文リスト
- A Sysmon Incremental Learning System for Ransomware Analysis and Detection [1.495391051525033]
サイバー脅威、特にランサムウェア攻撃の増加に直面しているため、高度な検知と分析システムの必要性が高まっている。
これらの提案のほとんどは、新しいランサムウェアを検出するために、基礎となるモデルをスクラッチから更新する必要がある、非インクリメンタルな学習アプローチを活用している。
新たなランサムウェア株がモデルが更新されるまで検出されない可能性があるため、再トレーニング中に攻撃に対して脆弱なデータを残すため、このアプローチは問題となる。
本稿では,Sysmon Incremental Learning System for Analysis and Detection (SILRAD)を提案する。
論文 参考訳(メタデータ) (2025-01-02T06:22:58Z) - Revisiting Concept Drift in Windows Malware Detection: Adaptation to Real Drifted Malware with Minimal Samples [10.352741619176383]
本研究では,ドリフトマルウェアの検出と分類を行う新しい手法を提案する。
グラフニューラルネットワークと対向ドメイン適応を利用して、マルウェア制御フローグラフのドリフト不変性を学習する。
当社のアプローチは,公開ベンチマークや,セキュリティ企業によって毎日報告されている実世界のマルウェアデータベース上でのドリフトマルウェアの検出を大幅に改善する。
論文 参考訳(メタデータ) (2024-07-18T22:06:20Z) - Updating Windows Malware Detectors: Balancing Robustness and Regression against Adversarial EXEmples [8.911277142080934]
Windows マルウェア検出装置の更新における精度と回帰のトレードオフについて検討する。
既存の検出器にチェーンしてEXEmplesを迅速に停止するプラグインであるEXE-Scannerを提案する。
論文 参考訳(メタデータ) (2024-05-04T12:12:23Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Fast & Furious: Modelling Malware Detection as Evolving Data Streams [6.6892028759947175]
マルウェアはコンピュータシステムにとって大きな脅威であり、サイバーセキュリティに多くの課題を課している。
本研究では,2つのAndroidデータセットに対するマルウェア分類器に対する概念ドリフトの影響を評価する。
論文 参考訳(メタデータ) (2022-05-24T18:43:40Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Continual Learning for Fake Audio Detection [62.54860236190694]
本論文では,連続学習に基づく手法である忘れずに偽物を検出することで,モデルに新たなスプーフィング攻撃をインクリメンタルに学習させる手法を提案する。
ASVspoof 2019データセットで実験が行われる。
論文 参考訳(メタデータ) (2021-04-15T07:57:05Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - MDEA: Malware Detection with Evolutionary Adversarial Learning [16.8615211682877]
MDEA(Adversarial Malware Detection)モデルであるMDEAは、進化的最適化を使用して攻撃サンプルを作成し、ネットワークを回避攻撃に対して堅牢にする。
進化したマルウェアサンプルでモデルを再トレーニングすることで、その性能は大幅に改善される。
論文 参考訳(メタデータ) (2020-02-09T09:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。