論文の概要: FSPGD: Rethinking Black-box Attacks on Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2502.01262v2
- Date: Thu, 06 Mar 2025 14:50:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:55:27.503232
- Title: FSPGD: Rethinking Black-box Attacks on Semantic Segmentation
- Title(参考訳): FSPGD: セマンティックセグメンテーションのブラックボックス攻撃を再考
- Authors: Eun-Sol Park, MiSo Park, Seung Park, Yong-Goo Shin,
- Abstract要約: 本稿では,攻撃性能と転送性の両方を高める新しいブラックボックスアプローチであるFSPGDアタックを導入する。
本手法は, クリーンな画像と敵対的な画像の特徴を比較することで, ローカル情報を対象としている。
Pascal VOC 2012とCityscapesデータセットの実験は、FSPGDが優れた転送性とアタックパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 4.82982114295171
- License:
- Abstract: Transferability, the ability of adversarial examples crafted for one model to deceive other models, is crucial for black-box attacks. Despite advancements in attack methods for semantic segmentation, transferability remains limited, reducing their effectiveness in real-world applications. To address this, we introduce the Feature Similarity Projected Gradient Descent (FSPGD) attack, a novel black-box approach that enhances both attack performance and transferability. Unlike conventional segmentation attacks that rely on output predictions for gradient calculation, FSPGD computes gradients from intermediate layer features. Specifically, our method introduces a loss function that targets local information by comparing features between clean images and adversarial examples, while also disrupting contextual information by accounting for spatial relationships between objects. Experiments on Pascal VOC 2012 and Cityscapes datasets demonstrate that FSPGD achieves superior transferability and attack performance, establishing a new state-of-the-art benchmark. Code is available at https://github.com/KU-AIVS/FSPGD.
- Abstract(参考訳): トランスファービリティ(Transferability)は、あるモデルで他のモデルを騙すために作られた敵の例の能力であり、ブラックボックス攻撃には不可欠である。
セマンティックセグメンテーションのアタック手法の進歩にもかかわらず、トランスファービリティは限定的であり、現実のアプリケーションでの有効性を低下させる。
そこで本研究では,攻撃性能と転送性の両方を高める新しいブラックボックスアプローチであるFSPGDアタックを導入する。
勾配計算の出力予測に依存する従来のセグメンテーション攻撃とは異なり、FSPGDは中間層の特徴から勾配を計算する。
具体的には,対象物間の空間的関係を考慮に入れた文脈情報を乱すとともに,クリーンな画像と敵の例の特徴を比較することで,局所的な情報を対象としたロス関数を導入する。
Pascal VOC 2012とCityscapesデータセットの実験は、FSPGDが優れた転送性とアタックパフォーマンスを実現し、新しい最先端ベンチマークを確立することを実証している。
コードはhttps://github.com/KU-AIVS/FSPGD.comで入手できる。
関連論文リスト
- Improving Adversarial Transferability with Neighbourhood Gradient Information [20.55829486744819]
ディープニューラルネットワーク(DNN)は、敵の例に影響を受けやすいため、パフォーマンスが著しく低下する。
本研究は、この性能ギャップを狭めるために、敵の例の転送可能性を高めることに焦点を当てる。
事例追跡と多重マスク戦略を取り入れたNGI-Attackを提案する。
論文 参考訳(メタデータ) (2024-08-11T10:46:49Z) - GI-SMN: Gradient Inversion Attack against Federated Learning without Prior Knowledge [4.839514405631815]
フェデレートラーニング(FL)は、プライバシ保護機械学習アプローチとして登場した。
勾配反転攻撃はFLの勾配を利用して元のユーザデータを再現する。
スタイルマイグレーションネットワーク(GI-SMN)に基づく新しいグラディエント・インバージョン・アタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T14:29:24Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Surrogate Representation Learning with Isometric Mapping for Gray-box
Graph Adversarial Attacks [27.317964031440546]
グレーボックスグラフ攻撃は、被害者モデルに関する限られた知識を持つ攻撃を使用することで、被害者モデルのパフォーマンスを損なうことを目的としている。
ノード属性やグラフ構造の勾配を求めるため、攻撃者は監督下で訓練された仮想代理モデルを構築する。
本稿では,グラフ逆数攻撃の伝達性に及ぼす代理モデルの表現学習の影響について検討する。
論文 参考訳(メタデータ) (2021-10-20T10:47:34Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。