論文の概要: Exploring Cross-Stage Adversarial Transferability in Class-Incremental Continual Learning
- arxiv url: http://arxiv.org/abs/2508.08920v1
- Date: Tue, 12 Aug 2025 13:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.433548
- Title: Exploring Cross-Stage Adversarial Transferability in Class-Incremental Continual Learning
- Title(参考訳): クラス増分連続学習におけるクロスステージ逆変換可能性の探索
- Authors: Jungwoo Kim, Jong-Seok Lee,
- Abstract要約: クラス増分連続学習は、分類モデルが学習済みのクラスの知識を保存し、新しいものを取得することによって破滅的な忘れを解消する。
本研究は, 初期モデルを用いて生成した逆数例を, 後期モデルで生成した逆数例として, ステージ転送攻撃に対する脆弱性の最初の調査を行う。
以上の結果から,連続学習手法はこれらの攻撃の影響を受けやすいことが判明し,重大なセキュリティ問題を引き起こした。
- 参考スコア(独自算出の注目度): 17.739979156009696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental continual learning addresses catastrophic forgetting by enabling classification models to preserve knowledge of previously learned classes while acquiring new ones. However, the vulnerability of the models against adversarial attacks during this process has not been investigated sufficiently. In this paper, we present the first exploration of vulnerability to stage-transferred attacks, i.e., an adversarial example generated using the model in an earlier stage is used to attack the model in a later stage. Our findings reveal that continual learning methods are highly susceptible to these attacks, raising a serious security issue. We explain this phenomenon through model similarity between stages and gradual robustness degradation. Additionally, we find that existing adversarial training-based defense methods are not sufficiently effective to stage-transferred attacks. Codes are available at https://github.com/mcml-official/CSAT.
- Abstract(参考訳): クラス増分連続学習は、分類モデルが学習済みのクラスの知識を保存し、新しいものを取得することによって破滅的な忘れを解消する。
しかし、この過程での敵攻撃に対するモデルの脆弱性は十分に調査されていない。
本稿では,初期段階においてモデルを用いて生成した逆数例を,後期段階においてモデルを攻撃するために使用した。
本研究の結果, 連続学習手法はこれらの攻撃の影響を受けやすいことが判明し, 深刻なセキュリティ問題を引き起こした。
この現象は,段階間のモデル類似性と段階的ロバストネス劣化によって説明される。
さらに,既存の対人訓練に基づく防衛手法は,段階的攻撃に対して十分効果がないことがわかった。
コードはhttps://github.com/mcml-official/CSATで入手できる。
関連論文リスト
- Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Model-agnostic clean-label backdoor mitigation in cybersecurity environments [6.857489153636145]
近年の研究では、セキュリティ分類タスク用に設計されたモデルにバックドアを注入する、一連の悪質な訓練時間攻撃が表面化している。
我々は、サイバーセキュリティ脅威モデルの洞察を活用して、これらのクリーンラベル中毒攻撃を効果的に軽減する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T03:25:40Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。