論文の概要: CosPGD: a unified white-box adversarial attack for pixel-wise prediction
tasks
- arxiv url: http://arxiv.org/abs/2302.02213v2
- Date: Mon, 19 Jun 2023 20:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 04:00:44.132179
- Title: CosPGD: a unified white-box adversarial attack for pixel-wise prediction
tasks
- Title(参考訳): CosPGD : 画素単位の予測タスクに対する一貫したホワイトボックス対向攻撃
- Authors: Shashank Agnihotri and Steffen Jung and Margret Keuper
- Abstract要約: 我々は,任意の画素単位の予測タスクに対して専用の攻撃を最適化できる,新しいホワイトボックス対逆攻撃であるCosPGDを提案する。
我々は,光フローに対する敵攻撃と,任意の画素ワイド予測タスクに拡張可能な画像復元のための新しいベンチマークを設定した。
- 参考スコア(独自算出の注目度): 11.83842808044211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While neural networks allow highly accurate predictions in many tasks, their
lack of robustness towards even slight input perturbations hampers their
deployment in many real-world applications. Recent research towards evaluating
the robustness of neural networks such as the seminal projected gradient
descent(PGD) attack and subsequent works have drawn significant attention, as
they provide an effective insight into the quality of representations learned
by the network. However, these methods predominantly focus on image
classification tasks, while only a few approaches specifically address the
analysis of pixel-wise prediction tasks such as semantic segmentation, optical
flow, disparity estimation, and others, respectively. Thus, there is a lack of
a unified adversarial robustness benchmarking tool(algorithm) that is
applicable to all such pixel-wise prediction tasks. In this work, we close this
gap and propose CosPGD, a novel white-box adversarial attack that allows
optimizing dedicated attacks for any pixel-wise prediction task in a unified
setting. It leverages the cosine similarity between the distributions over the
predictions and ground truth (or target) to extend directly from classification
tasks to regression settings. We outperform the SotA on semantic segmentation
attacks in our experiments on PASCAL VOC2012 and CityScapes. Further, we set a
new benchmark for adversarial attacks on optical flow, and image restoration
displaying the ability to extend to any pixel-wise prediction task.
- Abstract(参考訳): ニューラルネットワークは、多くのタスクで高精度な予測を可能にするが、わずかな入力摂動に対する堅牢性の欠如は、多くの現実世界アプリケーションでのデプロイメントを妨げている。
セナル・プロジェクテッド・グラデーション・降下(pgd)攻撃などのニューラルネットワークのロバスト性を評価する最近の研究は、ネットワークが学習する表現の質に関する効果的な洞察を提供するため、多くの注目を集めている。
しかし,これらの手法は画像分類タスクに重点を置いているのに対して,セマンティックセグメンテーションや光フロー,不均等推定などの画素単位の予測タスクの分析に特に取り組むアプローチはごくわずかである。
したがって、このようなピクセル単位の予測タスクに適用可能な、一貫した対向的堅牢性ベンチマークツール(algorithm)が存在しない。
本研究では,このギャップを埋めてCosPGDを提案する。これは,任意の画素単位の予測タスクに対して,一貫した設定で専用の攻撃を最適化する,新しいホワイトボックス対逆攻撃である。
予測上の分布と基底真理(あるいはターゲット)との間のコサイン類似性を活用して、分類タスクから回帰設定へ直接拡張する。
PASCAL VOC2012とCityScapesのセマンティックセグメンテーション攻撃では,SotAよりも優れています。
さらに,光学フローに対する敵対的攻撃に対する新たなベンチマークを設定し,任意の画素単位の予測タスクに拡張する能力を示す画像復元を行った。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Dynamic Transformers Provide a False Sense of Efficiency [75.39702559746533]
マルチエグジットモデルは、計算の節約を早期出口から得るため、効率と精度をトレードオフする。
本稿では,マルチエグジットモデルの効率を抑えるために特別に最適化された,シンプルで効果的なアタック・フレームワークであるITAを提案する。
GLUEベンチマークの実験により、Pameは様々なマルチエクイットモデルの効率向上を平均80%削減できることが示された。
論文 参考訳(メタデータ) (2023-05-20T16:41:48Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - Progressive-Scale Boundary Blackbox Attack via Projective Gradient
Estimation [26.16745376395128]
境界ベースのブラックボックス攻撃は、攻撃者が最終的なモデル予測にのみアクセスする必要があるため、実用的で効果的であると認識されている。
このような効率性は、攻撃が適用される規模に大きく依存し、最適なスケールでの攻撃は効率を著しく向上させることを示す。
本稿では,プログレッシブスケール対応型プログレッシブ・スケール・プロジェクティブ・バウンダリ・アタック(PSBA)を提案する。
論文 参考訳(メタデータ) (2021-06-10T21:13:41Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。