論文の概要: Superpixel Attack: Enhancing Black-box Adversarial Attack with Image-driven Division Areas
- arxiv url: http://arxiv.org/abs/2512.02062v1
- Date: Sat, 29 Nov 2025 05:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.54549
- Title: Superpixel Attack: Enhancing Black-box Adversarial Attack with Image-driven Division Areas
- Title(参考訳): スーパーピクセル攻撃:画像駆動分割領域によるブラックボックス攻撃の強化
- Authors: Issa Oe, Keiichiro Yamamura, Hiroki Ishikura, Ryo Hamahira, Katsuki Fujisawa,
- Abstract要約: 敵対的攻撃は、誤分類につながる可能性のある小さな摂動を特定するために使用される。
ブラックボックス攻撃に対する有望なアプローチは、特定の画像領域を抽出し、それに追加される摂動を変更する過程を繰り返すことである。
そこで本研究では,色分散とコンパクトさのバランスの良いスーパーピクセルを提案する。
- 参考スコア(独自算出の注目度): 1.1417805445492082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models are used in safety-critical tasks such as automated driving and face recognition. However, small perturbations in the model input can significantly change the predictions. Adversarial attacks are used to identify small perturbations that can lead to misclassifications. More powerful black-box adversarial attacks are required to develop more effective defenses. A promising approach to black-box adversarial attacks is to repeat the process of extracting a specific image area and changing the perturbations added to it. Existing attacks adopt simple rectangles as the areas where perturbations are changed in a single iteration. We propose applying superpixels instead, which achieve a good balance between color variance and compactness. We also propose a new search method, versatile search, and a novel attack method, Superpixel Attack, which applies superpixels and performs versatile search. Superpixel Attack improves attack success rates by an average of 2.10% compared with existing attacks. Most models used in this study are robust against adversarial attacks, and this improvement is significant for black-box adversarial attacks. The code is avilable at https://github.com/oe1307/SuperpixelAttack.git.
- Abstract(参考訳): ディープラーニングモデルは、自動化運転や顔認識などの安全クリティカルなタスクで使用される。
しかし、モデル入力の小さな摂動は予測を大きく変える可能性がある。
敵対的攻撃は、誤分類につながる可能性のある小さな摂動を特定するために使用される。
より強力なブラックボックス攻撃はより効果的な防御を開発するために必要である。
ブラックボックス攻撃に対する有望なアプローチは、特定の画像領域を抽出し、それに追加される摂動を変更する過程を繰り返すことである。
既存の攻撃では、1回の反復で摂動が変化する領域として単純な矩形が採用されている。
そこで本研究では,色分散とコンパクトさのバランスの良いスーパーピクセルを提案する。
また,新しい探索法,多元探索法,新しい攻撃法であるスーパーピクセルアタックを提案し,これをスーパーピクセルに適用し,多元探索を行う。
スーパーピクセルアタックは、既存の攻撃と比較して平均2.10%の攻撃成功率を改善する。
本研究で用いられているほとんどのモデルは、敵攻撃に対して堅牢であり、この改善はブラックボックス敵攻撃において重要である。
コードはhttps://github.com/oe1307/SuperpixelAttack.git.comにある。
関連論文リスト
- Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Delving into the pixels of adversarial samples [0.10152838128195464]
画像のピクセルが敵の攻撃によってどのように影響を受けるかを知ることは、我々を敵の防御に導く可能性を秘めている。
我々は、いくつかのImageNetアーキテクチャ、InceptionV3、VGG19、ResNet50、およびいくつかの強力な攻撃について検討する。
特に、入力前処理は、攻撃がピクセルに与える影響について、これまで見過ごされていた役割を担っている。
論文 参考訳(メタデータ) (2021-06-21T11:28:06Z) - Black-box adversarial attacks using Evolution Strategies [3.093890460224435]
画像分類タスクに対するブラックボックス対向攻撃の生成について検討する。
その結果、攻撃されたニューラルネットワークは、ほとんどの場合、比較中のすべてのアルゴリズムによって簡単に騙されることがわかった。
一部のブラックボックス最適化アルゴリズムは、攻撃成功率と効率の両面で、よりハードな設定で優れている。
論文 参考訳(メタデータ) (2021-04-30T15:33:07Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Learning to Attack with Fewer Pixels: A Probabilistic Post-hoc Framework
for Refining Arbitrary Dense Adversarial Attacks [21.349059923635515]
敵対的回避攻撃は ディープニューラルネットワーク画像分類器に 影響を受けやすいと報告されている
本稿では,乱れ画素数を著しく減少させることで,高密度攻撃を抑える確率的ポストホックフレームワークを提案する。
我々のフレームワークは、既存のスパース攻撃よりもはるかに高速に敵攻撃を行う。
論文 参考訳(メタデータ) (2020-10-13T02:51:10Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z) - Using an ensemble color space model to tackle adversarial examples [22.732023268348787]
このような攻撃を防御する3段階の手法を提案する。
まず,統計的手法を用いて画像の識別を行う。
第二に、同じモデルに複数の色空間を採用することは、これらの敵対的攻撃と戦うのに役立ちます。
論文 参考訳(メタデータ) (2020-03-10T21:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。