論文の概要: Constrained Adversarial Perturbation
- arxiv url: http://arxiv.org/abs/2510.15699v1
- Date: Fri, 17 Oct 2025 14:44:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.659076
- Title: Constrained Adversarial Perturbation
- Title(参考訳): 制約された対向性摂動
- Authors: Virendra Nishad, Bhaskar Mukhoty, Hilal AlQuabeh, Sandeep K. Shukla, Sayak Ray Chowdhury,
- Abstract要約: UAP(Universal Adversarial Perturbations)は、ストレステストモデルロバストネスとスケーラブルな対向トレーニングの両方のための強力なツールとして登場した。
本稿では、勾配に基づく交互最適化手法を用いて、この問題を解決する効率的なアルゴリズムである Constrained Adversarial Perturbation (CAP) を提案する。
- 参考スコア(独自算出の注目度): 16.05659740749269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have achieved remarkable success in a wide range of classification tasks. However, they remain highly susceptible to adversarial examples - inputs that are subtly perturbed to induce misclassification while appearing unchanged to humans. Among various attack strategies, Universal Adversarial Perturbations (UAPs) have emerged as a powerful tool for both stress testing model robustness and facilitating scalable adversarial training. Despite their effectiveness, most existing UAP methods neglect domain specific constraints that govern feature relationships. Violating such constraints, such as debt to income ratios in credit scoring or packet flow invariants in network communication, can render adversarial examples implausible or easily detectable, thereby limiting their real world applicability. In this work, we advance universal adversarial attacks to constrained feature spaces by formulating an augmented Lagrangian based min max optimization problem that enforces multiple, potentially complex constraints of varying importance. We propose Constrained Adversarial Perturbation (CAP), an efficient algorithm that solves this problem using a gradient based alternating optimization strategy. We evaluate CAP across diverse domains including finance, IT networks, and cyber physical systems, and demonstrate that it achieves higher attack success rates while significantly reducing runtime compared to existing baselines. Our approach also generalizes seamlessly to individual adversarial perturbations, where we observe similar strong performance gains. Finally, we introduce a principled procedure for learning feature constraints directly from data, enabling broad applicability across domains with structured input spaces.
- Abstract(参考訳): ディープニューラルネットワークは、幅広い分類タスクで顕著な成功を収めた。
しかし、それらは敵対的な例に対して非常に感受性が高く、人間に変わらず、誤分類を誘発するために微妙に摂動された入力である。
様々な攻撃戦略の中で、UAP(Universal Adversarial Perturbations)は、ストレステストモデルロバストネスとスケーラブルな敵の訓練を促進するための強力なツールとして登場した。
有効性にもかかわらず、既存のUAPメソッドは機能関係を管理するドメイン固有の制約を無視している。
信用スコアリングやネットワーク通信におけるパケットフロー不変量の負債や所得比率などの制約を緩和することは、敵の例を予測不能または容易に検出し、現実の応用性を制限することができる。
本研究では,拡張ラグランジアン型ミンマックス最適化問題を定式化することにより,制約付き特徴空間に対する普遍的対角攻撃を推し進める。
本稿では、勾配に基づく交互最適化手法を用いて、この問題を解決する効率的なアルゴリズムである Constrained Adversarial Perturbation (CAP) を提案する。
ファイナンス、ITネットワーク、サイバー物理システムなど、さまざまな分野のCAPを評価し、既存のベースラインに比べて実行時間を大幅に削減しつつ、より高い攻撃成功率を達成することを実証した。
提案手法は, 対向的な摂動に対してシームレスに一般化し, 同様の強い性能向上を観察する。
最後に、データから直接特徴制約を学習し、構造化された入力空間を持つ領域にまたがって適用できるようにする。
関連論文リスト
- DOPA: Stealthy and Generalizable Backdoor Attacks from a Single Client under Challenging Federated Constraints [2.139012072214621]
フェデレーテッド・ラーニング(FL)は、プライバシー保護のための協調トレーニングにますます採用されているが、その分散した性質は、バックドア攻撃の影響を受けやすい。
しかし、既存の攻撃方法は、しばしば理想化された仮定に依存し、現実の制約の下で有効に保たない。
異種ローカルトレーニングのダイナミクスをシミュレートし,多種多様な最適化トラジェクトリ間のコンセンサスを求める新しいフレームワークであるDOPAを提案する。
論文 参考訳(メタデータ) (2025-08-20T08:39:12Z) - NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [86.99017195607077]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space [13.096022606256973]
本稿では、与えられたドメイン制約を満たす実行可能な逆例を生成するための統一的なフレームワークを提案する。
我々のフレームワークは、制約された敵攻撃の研究の出発点を形成し、研究が活用できる関連するベースラインとデータセットを提供します。
論文 参考訳(メタデータ) (2021-12-02T12:05:27Z) - On the Robustness of Domain Constraints [0.4194295877935867]
逆転例がモデル化されたドメインにおける現実的な入力を表すかどうかは不明である。
本稿では、ドメイン制約が敵の能力を制限する方法を検討する。
学習した制約を、相手のクラフトプロセスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-05-18T15:49:55Z) - Dynamic Domain Adaptation for Efficient Inference [12.713628738434881]
ドメイン適応(DA)は、ラベル付きソースドメインからラベルなしターゲットドメインへの知識転送を可能にする。
以前のdaアプローチのほとんどは、適応能力を改善するために複雑で強力なディープニューラルネットワークを活用する。
低リソースシナリオにおいて効率的なターゲット推論を同時に実現できる動的ドメイン適応(DDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-26T08:53:16Z) - Universal Adversarial Perturbations for Malware [15.748648955898528]
universal adversarial perturbation (uaps) は入力空間全体に一般化するノイズパターンを特定する。
マルウェア分類におけるUAPの課題と強みについて検討する。
本稿では,問題空間変換に基づく知識を用いた逆トレーニングに基づく緩和を提案する。
論文 参考訳(メタデータ) (2021-02-12T20:06:10Z) - Unsupervised Domain Adaptation in Person re-ID via k-Reciprocal
Clustering and Large-Scale Heterogeneous Environment Synthesis [76.46004354572956]
個人再識別のための教師なし領域適応手法を提案する。
実験結果から,ktCUDA法とSHRED法は,再同定性能において,+5.7 mAPの平均的改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-01-14T17:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。