論文の概要: CosPGD: an efficient white-box adversarial attack for pixel-wise prediction tasks
- arxiv url: http://arxiv.org/abs/2302.02213v3
- Date: Fri, 5 Jul 2024 18:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 05:42:28.643236
- Title: CosPGD: an efficient white-box adversarial attack for pixel-wise prediction tasks
- Title(参考訳): CosPGD : ピクセルワイド予測タスクのための効率的なホワイトボックス対向攻撃
- Authors: Shashank Agnihotri, Steffen Jung, Margret Keuper,
- Abstract要約: 初等射影勾配降下(PGD)のような敵攻撃は、モデルの堅牢性を評価する効果的な手段を提供する。
攻撃の全体的な効率を向上しながら、画像領域全体に対するよりバランスのとれたエラーを促す攻撃であるCosPGDを提案する。
- 参考スコア(独自算出の注目度): 16.10247754923311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While neural networks allow highly accurate predictions in many tasks, their lack of robustness towards even slight input perturbations often hampers their deployment. Adversarial attacks such as the seminal projected gradient descent (PGD) offer an effective means to evaluate a model's robustness and dedicated solutions have been proposed for attacks on semantic segmentation or optical flow estimation. While they attempt to increase the attack's efficiency, a further objective is to balance its effect, so that it acts on the entire image domain instead of isolated point-wise predictions. This often comes at the cost of optimization stability and thus efficiency. Here, we propose CosPGD, an attack that encourages more balanced errors over the entire image domain while increasing the attack's overall efficiency. To this end, CosPGD leverages a simple alignment score computed from any pixel-wise prediction and its target to scale the loss in a smooth and fully differentiable way. It leads to efficient evaluations of a model's robustness for semantic segmentation as well as regression models (such as optical flow, disparity estimation, or image restoration), and it allows it to outperform the previous SotA attack on semantic segmentation. We provide code for the CosPGD algorithm and example usage at https://github.com/shashankskagnihotri/cospgd.
- Abstract(参考訳): ニューラルネットワークは、多くのタスクにおいて非常に正確な予測を可能にするが、わずかな入力摂動に対する堅牢性の欠如は、しばしばデプロイメントを妨げている。
セマンティックセグメンテーション(英語版)や光フロー推定(英語版)に対する攻撃に対して、セマンティック・セグメンテーション(英語版)(英語版) (PGD) のような敵対的攻撃はモデルの堅牢性を評価する効果的な手段となり、専用解が提案されている。
攻撃の効率を向上しようとする一方で、さらなる目的は、その効果のバランスを保ち、孤立したポイントワイズ予測ではなく、画像領域全体に作用するようにすることである。
これはしばしば最適化の安定性と効率性の犠牲になる。
本稿では,攻撃の全体的な効率を向上しつつ,画像領域全体に対するよりバランスのとれたエラーを促す攻撃であるCosPGDを提案する。
この目的のために、CosPGDは、任意のピクセルワイド予測とそのターゲットから計算された単純なアライメントスコアを利用して、損失を滑らかで完全に微分可能な方法でスケールする。
これは、セマンティックセグメンテーションに対するモデルの堅牢性や回帰モデル(光学フロー、不均一性推定、画像復元など)を効率的に評価し、セマンティックセグメンテーションに対する以前のSotA攻撃よりも優れている。
我々はCosPGDアルゴリズムのコードをhttps://github.com/shashankskagnihotri/cospgdで提供します。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Dynamic Transformers Provide a False Sense of Efficiency [75.39702559746533]
マルチエグジットモデルは、計算の節約を早期出口から得るため、効率と精度をトレードオフする。
本稿では,マルチエグジットモデルの効率を抑えるために特別に最適化された,シンプルで効果的なアタック・フレームワークであるITAを提案する。
GLUEベンチマークの実験により、Pameは様々なマルチエクイットモデルの効率向上を平均80%削減できることが示された。
論文 参考訳(メタデータ) (2023-05-20T16:41:48Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - Progressive-Scale Boundary Blackbox Attack via Projective Gradient
Estimation [26.16745376395128]
境界ベースのブラックボックス攻撃は、攻撃者が最終的なモデル予測にのみアクセスする必要があるため、実用的で効果的であると認識されている。
このような効率性は、攻撃が適用される規模に大きく依存し、最適なスケールでの攻撃は効率を著しく向上させることを示す。
本稿では,プログレッシブスケール対応型プログレッシブ・スケール・プロジェクティブ・バウンダリ・アタック(PSBA)を提案する。
論文 参考訳(メタデータ) (2021-06-10T21:13:41Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。