論文の概要: CosPGD: a unified white-box adversarial attack for pixel-wise prediction
tasks
- arxiv url: http://arxiv.org/abs/2302.02213v2
- Date: Mon, 19 Jun 2023 20:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 04:00:44.132179
- Title: CosPGD: a unified white-box adversarial attack for pixel-wise prediction
tasks
- Title(参考訳): CosPGD : 画素単位の予測タスクに対する一貫したホワイトボックス対向攻撃
- Authors: Shashank Agnihotri and Steffen Jung and Margret Keuper
- Abstract要約: 我々は,任意の画素単位の予測タスクに対して専用の攻撃を最適化できる,新しいホワイトボックス対逆攻撃であるCosPGDを提案する。
我々は,光フローに対する敵攻撃と,任意の画素ワイド予測タスクに拡張可能な画像復元のための新しいベンチマークを設定した。
- 参考スコア(独自算出の注目度): 11.83842808044211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While neural networks allow highly accurate predictions in many tasks, their
lack of robustness towards even slight input perturbations hampers their
deployment in many real-world applications. Recent research towards evaluating
the robustness of neural networks such as the seminal projected gradient
descent(PGD) attack and subsequent works have drawn significant attention, as
they provide an effective insight into the quality of representations learned
by the network. However, these methods predominantly focus on image
classification tasks, while only a few approaches specifically address the
analysis of pixel-wise prediction tasks such as semantic segmentation, optical
flow, disparity estimation, and others, respectively. Thus, there is a lack of
a unified adversarial robustness benchmarking tool(algorithm) that is
applicable to all such pixel-wise prediction tasks. In this work, we close this
gap and propose CosPGD, a novel white-box adversarial attack that allows
optimizing dedicated attacks for any pixel-wise prediction task in a unified
setting. It leverages the cosine similarity between the distributions over the
predictions and ground truth (or target) to extend directly from classification
tasks to regression settings. We outperform the SotA on semantic segmentation
attacks in our experiments on PASCAL VOC2012 and CityScapes. Further, we set a
new benchmark for adversarial attacks on optical flow, and image restoration
displaying the ability to extend to any pixel-wise prediction task.
- Abstract(参考訳): ニューラルネットワークは、多くのタスクで高精度な予測を可能にするが、わずかな入力摂動に対する堅牢性の欠如は、多くの現実世界アプリケーションでのデプロイメントを妨げている。
セナル・プロジェクテッド・グラデーション・降下(pgd)攻撃などのニューラルネットワークのロバスト性を評価する最近の研究は、ネットワークが学習する表現の質に関する効果的な洞察を提供するため、多くの注目を集めている。
しかし,これらの手法は画像分類タスクに重点を置いているのに対して,セマンティックセグメンテーションや光フロー,不均等推定などの画素単位の予測タスクの分析に特に取り組むアプローチはごくわずかである。
したがって、このようなピクセル単位の予測タスクに適用可能な、一貫した対向的堅牢性ベンチマークツール(algorithm)が存在しない。
本研究では,このギャップを埋めてCosPGDを提案する。これは,任意の画素単位の予測タスクに対して,一貫した設定で専用の攻撃を最適化する,新しいホワイトボックス対逆攻撃である。
予測上の分布と基底真理(あるいはターゲット)との間のコサイン類似性を活用して、分類タスクから回帰設定へ直接拡張する。
PASCAL VOC2012とCityScapesのセマンティックセグメンテーション攻撃では,SotAよりも優れています。
さらに,光学フローに対する敵対的攻撃に対する新たなベンチマークを設定し,任意の画素単位の予測タスクに拡張する能力を示す画像復元を行った。
関連論文リスト
- Uncertainty-weighted Loss Functions for Improved Adversarial Attacks on
Semantic Segmentation [16.109860499330562]
分類モデルのために開発された敵攻撃は、セグメンテーションモデルにも適用可能であることが示された。
このような攻撃の損失関数に対する単純な不確実性に基づく重み付け方式を提案する。
重み付けスキームは、よく知られた敵攻撃者の損失関数に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-10-26T14:47:10Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Proxy Convexity: A Unified Framework for the Analysis of Neural Networks
Trained by Gradient Descent [95.94432031144716]
学習ネットワークの分析のための統合された非最適化フレームワークを提案する。
既存の保証は勾配降下により統一することができることを示す。
論文 参考訳(メタデータ) (2021-06-25T17:45:00Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。