論文の概要: CosPGD: a unified white-box adversarial attack for pixel-wise prediction
tasks
- arxiv url: http://arxiv.org/abs/2302.02213v1
- Date: Sat, 4 Feb 2023 17:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 19:28:23.139345
- Title: CosPGD: a unified white-box adversarial attack for pixel-wise prediction
tasks
- Title(参考訳): CosPGD : 画素単位の予測タスクに対する一貫したホワイトボックス対向攻撃
- Authors: Shashank Agnihotri and Margret Keuper
- Abstract要約: 我々は,任意の画素単位の予測タスクに対して専用の攻撃を最適化できる,新しいホワイトボックス対逆攻撃であるCosPGDを提案する。
セマンティックセグメンテーションにおけるCosPGDの優れた性能を実証的に示すとともに,光学的フローと不均一性の推定について述べる。
- 参考スコア(独自算出の注目度): 11.815365371687475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While neural networks allow highly accurate predictions in many tasks, their
lack in robustness towards even slight input perturbations hampers their
deployment in many real-world applications. Recent research towards evaluating
the robustness of neural networks such as the seminal \emph{projected gradient
descent} (PGD) attack and subsequent works and benchmarks have therefore drawn
significant attention. Yet, such methods focus predominantly on classification
tasks, while only a few approaches specifically address the analysis of
pixel-wise prediction tasks such as semantic segmentation, optical flow, or
disparity estimation. One notable exception is the recently proposed SegPGD
attack, which could showcase the importance of pixel-wise attacks for
evaluating semantic segmentation. While SegPGD is limited to pixel-wise
classification (i.e. segmentation), in this work, we propose CosPGD, a novel
white-box adversarial attack that allows to optimize dedicated attacks for any
pixel-wise prediction task in a unified setting. It leverages the cosine
similarity between the predictions and ground truth to extend directly from
classification tasks to regression settings. Further, we empirically show the
superior performance of CosPGD for semantic segmentation as well as for optical
flow and disparity estimation.
- Abstract(参考訳): ニューラルネットワークは、多くのタスクで高精度な予測を可能にするが、わずかな入力摂動に対する堅牢性の欠如は、多くの現実世界アプリケーションでのデプロイメントを妨げている。
近年のニューラルネットのロバスト性評価に向けた研究は, セミナル \emph{projected gradient descent} (PGD) 攻撃やその後の研究, ベンチマークなどに大きな注目を集めている。
しかし,このような手法は主に分類タスクに焦点をあてるが,意味セグメンテーションやオプティカルフロー,不一致推定といった画素単位の予測タスクの分析を特に扱うアプローチはごくわずかである。
注目すべき例外は、最近提案されたSegPGD攻撃であり、セマンティックセグメンテーションを評価するためのピクセルワイズアタックの重要性を示す可能性がある。
SegPGDはピクセル単位の分類(セグメンテーション)に限られるが、本研究では、任意のピクセル単位の予測タスクに対する専用の攻撃を統一環境で最適化できる、新しいホワイトボックス対逆攻撃であるCosPGDを提案する。
予測と基底真理の間のコサイン類似性を利用して、分類タスクから回帰設定へ直接拡張する。
さらに, セマンティクスセグメンテーションにおけるcospgdの優れた性能と, 光学的流れと不一致推定について実証的に示す。
関連論文リスト
- Uncertainty-weighted Loss Functions for Improved Adversarial Attacks on
Semantic Segmentation [16.109860499330562]
分類モデルのために開発された敵攻撃は、セグメンテーションモデルにも適用可能であることが示された。
このような攻撃の損失関数に対する単純な不確実性に基づく重み付け方式を提案する。
重み付けスキームは、よく知られた敵攻撃者の損失関数に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-10-26T14:47:10Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Proxy Convexity: A Unified Framework for the Analysis of Neural Networks
Trained by Gradient Descent [95.94432031144716]
学習ネットワークの分析のための統合された非最適化フレームワークを提案する。
既存の保証は勾配降下により統一することができることを示す。
論文 参考訳(メタデータ) (2021-06-25T17:45:00Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。