論文の概要: Towards Robust Universal Perturbation Attacks: A Float-Coded, Penalty-Driven Evolutionary Approach
- arxiv url: http://arxiv.org/abs/2601.12624v1
- Date: Sun, 18 Jan 2026 23:31:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.706989
- Title: Towards Robust Universal Perturbation Attacks: A Float-Coded, Penalty-Driven Evolutionary Approach
- Title(参考訳): ロバストな普遍摂動攻撃に向けて--Float-Coded, Penalty-Driven Evolutionary Approach
- Authors: Shiqi Wang, Mahdi Khosravy, Neeraj Gupta, Olaf Witkowski,
- Abstract要約: UAP(Universal Adversarial noise perturbations)は、ディープニューラルネットワークを弱体化させる能力によって、大きな注目を集めている。
このような摂動を生成するための単一目的駆動型フレームワークを導入する。
筆者らのフレームワークは, 従来手法に比べて, サイズが小さく, 誤分類効率が高く, 高速な摂動を常に生成している。
- 参考スコア(独自算出の注目度): 10.211523683826004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal adversarial perturbations (UAPs) have garnered significant attention due to their ability to undermine deep neural networks across multiple inputs using a single noise pattern. Evolutionary algorithms offer a promising approach to generating such perturbations due to their ability to navigate non-convex, gradient-free landscapes. In this work, we introduce a float-coded, penalty-driven single-objective evolutionary framework for UAP generation that achieves lower visibility perturbations while enhancing attack success rates. Our approach leverages continuous gene representations aligned with contemporary deep learning scales, incorporates dynamic evolutionary operators with adaptive scheduling, and utilizes a modular PyTorch implementation for seamless integration with modern architectures. Additionally, we ensure the universality of the generated perturbations by testing across diverse models and by periodically switching batches to prevent overfitting. Experimental results on the ImageNet dataset demonstrate that our framework consistently produces perturbations with smaller norms, higher misclassification effectiveness, and faster convergence compared to existing evolutionary-based methods. These findings highlight the robustness and scalability of our approach for universal adversarial attacks across various deep learning architectures.
- Abstract(参考訳): UAP(Universal Adversarial Perturbations)は、単一ノイズパターンを用いて複数の入力にまたがるディープニューラルネットワークを弱体化させる能力によって、大きな注目を集めている。
進化的アルゴリズムは、非凸で勾配のない風景をナビゲートする能力のために、そのような摂動を生成するための有望なアプローチを提供する。
本研究では,UAP生成のためのフロートコード型単目的進化フレームワークを提案する。
提案手法は,現代のディープラーニングスケールに適合した連続的な遺伝子表現を活用し,動的進化演算子に適応的スケジューリングを組み込み,モジュール型PyTorch実装を現代のアーキテクチャとのシームレスな統合に活用する。
さらに、様々なモデルでテストし、定期的にバッチを切り替えて過度に適合しないようにすることで、生成された摂動の普遍性を確保する。
ImageNetデータセットの実験結果から、我々のフレームワークは、既存の進化的手法と比較して、より少ない規範、高い誤分類効率、より高速な収束を常に生成していることが示された。
これらの知見は、様々なディープラーニングアーキテクチャにおける普遍的敵攻撃に対する我々のアプローチの堅牢性とスケーラビリティを浮き彫りにしている。
関連論文リスト
- Improving Deepfake Detection with Reinforcement Learning-Based Adaptive Data Augmentation [60.04281435591454]
CRDA(Curriculum Reinforcement-Learning Data Augmentation)は、マルチドメインの偽造機能を段階的にマスターするための検出器を導く新しいフレームワークである。
私たちのアプローチの中心は、強化学習と因果推論を統合することです。
提案手法は検出器の一般化性を大幅に向上し,複数のクロスドメインデータセット間でSOTA法より優れている。
論文 参考訳(メタデータ) (2025-11-10T12:45:52Z) - Bidirectional Representations Augmented Autoregressive Biological Sequence Generation:Application in De Novo Peptide Sequencing [51.12821379640881]
自己回帰(AR)モデルは、全体的な双方向表現を提供するが、生成的コヒーレンスとスケーラビリティに関する課題に直面している。
非自己回帰機構からリッチなコンテキスト情報を動的に統合することにより、AR生成を向上するハイブリッドフレームワークを提案する。
新しいクロスデコーダアテンションモジュールにより、ARデコーダは、これらの双方向機能を反復的にクエリし、統合することができる。
論文 参考訳(メタデータ) (2025-10-09T12:52:55Z) - Towards Efficient General Feature Prediction in Masked Skeleton Modeling [59.46799426434277]
マスクスケルトンモデリングのための新しい汎用特徴予測フレームワーク(GFP)を提案する。
我々の重要な革新は、局所的な動きパターンからグローバルな意味表現にまたがる、従来の低レベルな再構築を高レベルな特徴予測に置き換えることです。
論文 参考訳(メタデータ) (2025-09-03T18:05:02Z) - Improving the Transferability of Adversarial Examples by Inverse Knowledge Distillation [15.362394334872077]
逆知識蒸留(Inverse Knowledge Distillation, IKD)は, 対向移動性を効果的に向上するように設計されている。
IKDは勾配に基づく攻撃手法を統合し、攻撃勾配の多様性を促進し、特定のモデルアーキテクチャへの過度な適合を緩和する。
ImageNetデータセットの実験は、我々のアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2025-02-24T09:35:30Z) - LayerMix: Enhanced Data Augmentation through Fractal Integration for Robust Deep Learning [1.786053901581251]
ディープラーニングモデルは、アウト・オブ・ディストリビューション(OOD)のサンプルに直面すると、一貫したパフォーマンスを維持するのに苦労することが多い。
モデルロバスト性を体系的に強化する革新的なデータ拡張アプローチであるLayerMixを紹介する。
本手法は,ニューラルネットワークの一般化能力を大幅に向上させる意味論的一貫した合成サンプルを生成する。
論文 参考訳(メタデータ) (2025-01-08T22:22:44Z) - Universal Adversarial Defense in Remote Sensing Based on Pre-trained Denoising Diffusion Models [17.283914361697818]
深部ニューラルネットワーク(DNN)は、地球観測のための多数のAIアプリケーション(AI4EO)において重要なソリューションとして注目されている。
本稿では、リモートセンシング画像(UAD-RS)における新しいユニバーサル・ディフェンス・アプローチを提案する。
論文 参考訳(メタデータ) (2023-07-31T17:21:23Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。