論文の概要: A Certified Radius-Guided Attack Framework to Image Segmentation Models
- arxiv url: http://arxiv.org/abs/2304.02693v1
- Date: Wed, 5 Apr 2023 18:43:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 16:19:49.457951
- Title: A Certified Radius-Guided Attack Framework to Image Segmentation Models
- Title(参考訳): 画像セグメンテーションモデルのための認証ラディウス誘導攻撃フレームワーク
- Authors: Wenjie Qu, Youqi Li, Binghui Wang
- Abstract要約: 画像セグメンテーションと分類には固有の違いがあり、特に画像セグメンテーションモデルのためのアタック・フレームワークを設計する。
我々の攻撃フレームワークは、もともとディフェンダーが分類モデルに対する敵の摂動を防御するために使用した、認証された半径にインスパイアされている。
- 参考スコア(独自算出の注目度): 17.97965740831816
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Image segmentation is an important problem in many safety-critical
applications. Recent studies show that modern image segmentation models are
vulnerable to adversarial perturbations, while existing attack methods mainly
follow the idea of attacking image classification models. We argue that image
segmentation and classification have inherent differences, and design an attack
framework specially for image segmentation models. Our attack framework is
inspired by certified radius, which was originally used by defenders to defend
against adversarial perturbations to classification models. We are the first,
from the attacker perspective, to leverage the properties of certified radius
and propose a certified radius guided attack framework against image
segmentation models. Specifically, we first adapt randomized smoothing, the
state-of-the-art certification method for classification models, to derive the
pixel's certified radius. We then focus more on disrupting pixels with
relatively smaller certified radii and design a pixel-wise certified radius
guided loss, when plugged into any existing white-box attack, yields our
certified radius-guided white-box attack. Next, we propose the first black-box
attack to image segmentation models via bandit. We design a novel gradient
estimator, based on bandit feedback, which is query-efficient and provably
unbiased and stable. We use this gradient estimator to design a projected
bandit gradient descent (PBGD) attack, as well as a certified radius-guided
PBGD (CR-PBGD) attack. We prove our PBGD and CR-PBGD attacks can achieve
asymptotically optimal attack performance with an optimal rate. We evaluate our
certified-radius guided white-box and black-box attacks on multiple modern
image segmentation models and datasets. Our results validate the effectiveness
of our certified radius-guided attack framework.
- Abstract(参考訳): 画像セグメンテーションは多くの安全クリティカルなアプリケーションにおいて重要な問題である。
近年の研究では、現代の画像セグメンテーションモデルは敵の摂動に弱いが、既存の攻撃手法は主に画像分類モデルを攻撃するという考え方に従っている。
画像セグメンテーションと分類には固有の差異があり,特に画像セグメンテーションモデルに対して攻撃フレームワークを設計する。
我々の攻撃フレームワークは、もともとディフェンダーが分類モデルに対する敵の摂動を防御するために用いた認証半径にインスパイアされている。
我々は,認証された半径の特性を活用した最初の攻撃者であり,画像分割モデルに対する認証された半径誘導攻撃フレームワークを提案する。
具体的には、まず、分類モデルの最先端認証手法であるランダム化平滑化を適用し、画素の認証半径を導出する。
次に、比較的小さな半径で画素を破壊することに集中し、既存のホワイトボックス攻撃に差し込んだとき、ピクセル単位の半径誘導損失を設計し、認証された半径誘導されたホワイトボックス攻撃を発生させる。
次に,Banditによる画像分割モデルに対する最初のブラックボックス攻撃を提案する。
我々は,banditフィードバックに基づく新しい勾配推定器を設計した。
我々は、この勾配推定器を用いて、プロジェクテッド・バンディット勾配降下(PBGD)攻撃、および認定半径誘導PBGD(CR-PBGD)攻撃を設計する。
PBGDとCR-PBGDの攻撃が漸近的に最適な攻撃性能を最適な速度で達成できることを示す。
我々は,複数の現代画像セグメントモデルとデータセットに対して,認定ラディウスガイド付きホワイトボックスとブラックボックス攻撃を評価した。
以上の結果から,認定半径誘導攻撃フレームワークの有効性が検証された。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - Red-Teaming Segment Anything Model [6.66538432730354]
Segment Anything Modelは、コンピュータビジョンのセグメンテーションタスクのための、最もよく知られた基礎モデルの一つである。
この研究は、Segment Anything Modelを困難なタスクに対してテストする、多面的な赤チーム分析を提示します。
論文 参考訳(メタデータ) (2024-04-02T16:07:50Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Query-Efficient Decision-based Black-Box Patch Attack [36.043297146652414]
本稿では,クエリ効率の高い決定ベースのパッチアタックに対して,DevoPatchという微分進化アルゴリズムを提案する。
DevoPatchは、パッチ領域とアタック成功率の点で、最先端のブラックボックスパッチ攻撃を上回っている。
本稿では,ViTの脆弱性評価と画像分類を,初めて決定ベースのパッチアタック設定で実施する。
論文 参考訳(メタデータ) (2023-07-02T05:15:43Z) - Influencer Backdoor Attack on Semantic Segmentation [39.57965442338681]
インフルエンサーバックドアアタック(IBA)はセマンティックセグメンテーションモデルに対するバックドアアタックである。
IBAは、すべての推定において、非ビビティ画素の分類精度と、すべての犠牲者画素の誤った分類を維持することが期待されている。
我々は,被害者の画素から離れた位置にトリガを配置しても最適な性能を維持する,革新的なPixelランダムラベリング戦略を導入する。
論文 参考訳(メタデータ) (2023-03-21T17:45:38Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image
Transformation [123.33816363589506]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。