論文の概要: Improving Sustainability of Adversarial Examples in Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2511.09088v1
- Date: Thu, 13 Nov 2025 01:31:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.403283
- Title: Improving Sustainability of Adversarial Examples in Class-Incremental Learning
- Title(参考訳): 授業増分学習における敵対的事例の持続性向上
- Authors: Taifeng Liu, Xinjing Liu, Liangqiu Dong, Yang Liu, Yilong Yang, Zhuo Ma,
- Abstract要約: 現在の逆例(AE)は、通常静的モデルのために設計されている。
CIL(Class-Incremental Learning)の広範な適用により、モデルはもはや静的ではなく、新しいデータが分散され、古いものとは異なるラベル付けで更新される必要がある。
我々は,CILに対するAEの持続可能性を高めるため,SAEを提案する。
- 参考スコア(独自算出の注目度): 7.7760746230870454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current adversarial examples (AEs) are typically designed for static models. However, with the wide application of Class-Incremental Learning (CIL), models are no longer static and need to be updated with new data distributed and labeled differently from the old ones. As a result, existing AEs often fail after CIL updates due to significant domain drift. In this paper, we propose SAE to enhance the sustainability of AEs against CIL. The core idea of SAE is to enhance the robustness of AE semantics against domain drift by making them more similar to the target class while distinguishing them from all other classes. Achieving this is challenging, as relying solely on the initial CIL model to optimize AE semantics often leads to overfitting. To resolve the problem, we propose a Semantic Correction Module. This module encourages the AE semantics to be generalized, based on a visual-language model capable of producing universal semantics. Additionally, it incorporates the CIL model to correct the optimization direction of the AE semantics, guiding them closer to the target class. To further reduce fluctuations in AE semantics, we propose a Filtering-and-Augmentation Module, which first identifies non-target examples with target-class semantics in the latent space and then augments them to foster more stable semantics. Comprehensive experiments demonstrate that SAE outperforms baselines by an average of 31.28% when updated with a 9-fold increase in the number of classes.
- Abstract(参考訳): 現在の逆例(AE)は、通常静的モデルのために設計されている。
しかし、CIL(Class-Incremental Learning)の幅広い応用により、モデルはもはや静的ではなく、新しいデータが分散され、古いものとは異なるラベル付けで更新される必要がある。
その結果、既存のAEはドメインドリフトが大きくなったため、CILのアップデート後に失敗することが多い。
本稿では,CILに対するAEの持続可能性を高めるためのSAEを提案する。
SAEの中核となる考え方は、ドメインドリフトに対するAEセマンティクスの堅牢性を高めることである。
AEセマンティクスを最適化するための初期CILモデルのみに依存すると、しばしば過度な適合につながるため、これを実現することは難しい。
この問題を解決するために,セマンティック補正モジュールを提案する。
このモジュールは、普遍的な意味論を生成できる視覚言語モデルに基づいて、AEセマンティクスを一般化することを奨励する。
さらに、CILモデルを組み込んで、AEセマンティクスの最適化方向を修正し、それらをターゲットクラスに近づける。
AEセマンティクスの揺らぎをさらに軽減するために、我々は、まずターゲットでない例を潜在空間のターゲットクラスセマンティクスで識別し、さらに安定なセマンティクスを育むためにそれらを拡張するフィルタ・アンド・拡張モジュールを提案する。
総合的な実験により、SAEは9倍のクラス数で更新されると平均31.28%のベースラインを上回ります。
関連論文リスト
- Evolution-based Region Adversarial Prompt Learning for Robustness Enhancement in Vision-Language Models [52.8949080772873]
本稿では,ER-APTと呼ばれる進化型領域逆アプティブチューニング手法を提案する。
各トレーニングイテレーションでは、まず従来の勾配法を用いてAEを生成する。
次に、AEsを最適化するために、選択、突然変異、交差を含む遺伝的進化機構を適用する。
最終進化型AEは、従来の単点対向的な高速チューニングの代わりに、地域ベースの対向最適化を実現するために用いられる。
論文 参考訳(メタデータ) (2025-03-17T07:08:47Z) - Source-Free Domain Adaptive Object Detection with Semantics Compensation [54.00183496587841]
Weak-to-strong Semantics Compensation (WSCo)を導入する。
WSCoは、クラス関連セマンティクスを補う。
WSCoは一般的なプラグインとして実装することができ、既存のSFODパイプラインと容易に統合できます。
論文 参考訳(メタデータ) (2024-10-07T23:32:06Z) - Enhancing Adversarial Transferability with Adversarial Weight Tuning [50.01825144613307]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - Explaining the role of Intrinsic Dimensionality in Adversarial Training [31.495803865226158]
その結果,非多様体対向例(AEs)は強靭性を高め,一方,非多様体のAEsは一般化を向上させることがわかった。
SMAATは,最も内在次元の低い層を摂動させることにより,エンコーダモデルにおけるATのスケーラビリティを向上させる。
我々は、テキスト生成、感情分類、安全フィルタリング、検索強化生成設定など、複数のタスクにわたるSMAATを検証する。
論文 参考訳(メタデータ) (2024-05-27T12:48:30Z) - Enhancing targeted transferability via feature space fine-tuning [21.131915084053894]
アドリラルな例(AE)は、プライバシ保護と堅牢なニューラルネットワークを刺激する可能性のために、広く研究されている。
既存の単純な反復攻撃によって作られたAEを微調整し、未知のモデル間で転送できるようにする。
論文 参考訳(メタデータ) (2024-01-05T09:46:42Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - To Regularize or Not To Regularize? The Bias Variance Trade-off in
Regularized AEs [10.611727286504994]
AEモデルの生成決定論的品質に及ぼす潜伏剤の影響について検討する。
我々は、FlexAEと呼ばれるモデルが、AEベースの生成モデルのための新しい最先端技術であることを示します。
論文 参考訳(メタデータ) (2020-06-10T14:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。