論文の概要: CosPGD: a unified white-box adversarial attack for pixel-wise prediction
tasks
- arxiv url: http://arxiv.org/abs/2302.02213v1
- Date: Sat, 4 Feb 2023 17:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 19:28:23.139345
- Title: CosPGD: a unified white-box adversarial attack for pixel-wise prediction
tasks
- Title(参考訳): CosPGD : 画素単位の予測タスクに対する一貫したホワイトボックス対向攻撃
- Authors: Shashank Agnihotri and Margret Keuper
- Abstract要約: 我々は,任意の画素単位の予測タスクに対して専用の攻撃を最適化できる,新しいホワイトボックス対逆攻撃であるCosPGDを提案する。
セマンティックセグメンテーションにおけるCosPGDの優れた性能を実証的に示すとともに,光学的フローと不均一性の推定について述べる。
- 参考スコア(独自算出の注目度): 11.815365371687475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While neural networks allow highly accurate predictions in many tasks, their
lack in robustness towards even slight input perturbations hampers their
deployment in many real-world applications. Recent research towards evaluating
the robustness of neural networks such as the seminal \emph{projected gradient
descent} (PGD) attack and subsequent works and benchmarks have therefore drawn
significant attention. Yet, such methods focus predominantly on classification
tasks, while only a few approaches specifically address the analysis of
pixel-wise prediction tasks such as semantic segmentation, optical flow, or
disparity estimation. One notable exception is the recently proposed SegPGD
attack, which could showcase the importance of pixel-wise attacks for
evaluating semantic segmentation. While SegPGD is limited to pixel-wise
classification (i.e. segmentation), in this work, we propose CosPGD, a novel
white-box adversarial attack that allows to optimize dedicated attacks for any
pixel-wise prediction task in a unified setting. It leverages the cosine
similarity between the predictions and ground truth to extend directly from
classification tasks to regression settings. Further, we empirically show the
superior performance of CosPGD for semantic segmentation as well as for optical
flow and disparity estimation.
- Abstract(参考訳): ニューラルネットワークは、多くのタスクで高精度な予測を可能にするが、わずかな入力摂動に対する堅牢性の欠如は、多くの現実世界アプリケーションでのデプロイメントを妨げている。
近年のニューラルネットのロバスト性評価に向けた研究は, セミナル \emph{projected gradient descent} (PGD) 攻撃やその後の研究, ベンチマークなどに大きな注目を集めている。
しかし,このような手法は主に分類タスクに焦点をあてるが,意味セグメンテーションやオプティカルフロー,不一致推定といった画素単位の予測タスクの分析を特に扱うアプローチはごくわずかである。
注目すべき例外は、最近提案されたSegPGD攻撃であり、セマンティックセグメンテーションを評価するためのピクセルワイズアタックの重要性を示す可能性がある。
SegPGDはピクセル単位の分類(セグメンテーション)に限られるが、本研究では、任意のピクセル単位の予測タスクに対する専用の攻撃を統一環境で最適化できる、新しいホワイトボックス対逆攻撃であるCosPGDを提案する。
予測と基底真理の間のコサイン類似性を利用して、分類タスクから回帰設定へ直接拡張する。
さらに, セマンティクスセグメンテーションにおけるcospgdの優れた性能と, 光学的流れと不一致推定について実証的に示す。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Dynamic Transformers Provide a False Sense of Efficiency [75.39702559746533]
マルチエグジットモデルは、計算の節約を早期出口から得るため、効率と精度をトレードオフする。
本稿では,マルチエグジットモデルの効率を抑えるために特別に最適化された,シンプルで効果的なアタック・フレームワークであるITAを提案する。
GLUEベンチマークの実験により、Pameは様々なマルチエクイットモデルの効率向上を平均80%削減できることが示された。
論文 参考訳(メタデータ) (2023-05-20T16:41:48Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - Progressive-Scale Boundary Blackbox Attack via Projective Gradient
Estimation [26.16745376395128]
境界ベースのブラックボックス攻撃は、攻撃者が最終的なモデル予測にのみアクセスする必要があるため、実用的で効果的であると認識されている。
このような効率性は、攻撃が適用される規模に大きく依存し、最適なスケールでの攻撃は効率を著しく向上させることを示す。
本稿では,プログレッシブスケール対応型プログレッシブ・スケール・プロジェクティブ・バウンダリ・アタック(PSBA)を提案する。
論文 参考訳(メタデータ) (2021-06-10T21:13:41Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。