論文の概要: Delving into Decision-based Black-box Attacks on Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2402.01220v1
- Date: Fri, 2 Feb 2024 08:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:13:29.349581
- Title: Delving into Decision-based Black-box Attacks on Semantic Segmentation
- Title(参考訳): 意味的セグメンテーションに基づく決定に基づくブラックボックス攻撃
- Authors: Zhaoyu Chen, Zhengyang Shan, Jingwen Chang, Kaixun Jiang, Dingkang
Yang, Yiting Cheng, Wenqiang Zhang
- Abstract要約: 離散線形攻撃(DLA)と呼ばれる意味的セグメンテーションに対する決定に基づく攻撃を提案する。
ランダム探索とプロキシインデックスに基づいて、摂動探索と校正に離散線形雑音を用いて、効率的な攻撃効率を実現する。
DLAは、PSPNetのmIoUを77.83%からわずか50クエリで2.14%に劇的に削減することで、Cityscapesに強い力を示している。
- 参考スコア(独自算出の注目度): 24.271044370360777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation is a fundamental visual task that finds extensive
deployment in applications with security-sensitive considerations. Nonetheless,
recent work illustrates the adversarial vulnerability of semantic segmentation
models to white-box attacks. However, its adversarial robustness against
black-box attacks has not been fully explored. In this paper, we present the
first exploration of black-box decision-based attacks on semantic segmentation.
First, we analyze the challenges that semantic segmentation brings to
decision-based attacks through the case study. Then, to address these
challenges, we first propose a decision-based attack on semantic segmentation,
called Discrete Linear Attack (DLA). Based on random search and proxy index, we
utilize the discrete linear noises for perturbation exploration and calibration
to achieve efficient attack efficiency. We conduct adversarial robustness
evaluation on 5 models from Cityscapes and ADE20K under 8 attacks. DLA shows
its formidable power on Cityscapes by dramatically reducing PSPNet's mIoU from
an impressive 77.83% to a mere 2.14% with just 50 queries.
- Abstract(参考訳): セマンティックセグメンテーション(Semantic segmentation)は、セキュリティに敏感なアプリケーションに広範囲に展開する、基本的な視覚的タスクである。
それでも最近の研究は、セマンティックセグメンテーションモデルのホワイトボックス攻撃に対する敵意の脆弱性を説明している。
しかし、ブラックボックス攻撃に対する敵対的堅牢性は十分には研究されていない。
本稿では,ブラックボックス決定に基づくセマンティックセグメンテーションに対する攻撃を初めて検討する。
まず,セマンティクスセグメンテーションが意思決定に基づく攻撃にもたらした課題をケーススタディを通じて分析する。
次に,これらの課題に対処するため,まず,離散線形攻撃 (DLA) と呼ばれる意味的セグメンテーションに対する決定に基づく攻撃を提案する。
ランダムサーチとプロキシ指標に基づき,摂動探索とキャリブレーションに離散線形雑音を活用し,効率的な攻撃効率を実現する。
本研究では,Cityscapes とADE20K の 5 つのモデルに対して,8 つの攻撃下で対向ロバスト性評価を行う。
DLAは、PSPNetのmIoUを77.83%からわずか50クエリで2.14%に劇的に削減することで、Cityscapesに強い力を示している。
関連論文リスト
- BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Proximal Splitting Adversarial Attacks for Semantic Segmentation [33.53113858999438]
ホワイトボックス攻撃は、近位ラグランジアンノルムに基づく敵対的セグメンテーションモデルを騙すことができることを示す。
セグメンテーションに適応した分類攻撃と同様に,従来提案した攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-06-14T21:23:02Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Geometrically Adaptive Dictionary Attack on Face Recognition [23.712389625037442]
顔認証に対するクエリ効率の良いブラックボックス攻撃のための戦略を提案する。
中心となるアイデアは、UVテクスチャマップに逆方向の摂動を作り、それを画像の顔に投影することです。
LFWデータセットとCPLFWデータセットの実験において、圧倒的な性能改善を示す。
論文 参考訳(メタデータ) (2021-11-08T10:26:28Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z) - AdvMind: Inferring Adversary Intent of Black-Box Attacks [66.19339307119232]
本稿では,ブラックボックス攻撃の敵意を頑健に推定する新たな評価モデルであるAdvMindを提案する。
平均的なAdvMindは、3回未満のクエリバッチを観察した後、75%以上の精度で敵の意図を検出する。
論文 参考訳(メタデータ) (2020-06-16T22:04:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。