論文の概要: GreedyPixel: Fine-Grained Black-Box Adversarial Attack Via Greedy Algorithm
- arxiv url: http://arxiv.org/abs/2501.14230v2
- Date: Wed, 08 Oct 2025 13:27:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 14:21:17.918593
- Title: GreedyPixel: Fine-Grained Black-Box Adversarial Attack Via Greedy Algorithm
- Title(参考訳): GreedyPixel:グリーディアルゴリズムによるブラックボックスの敵対攻撃
- Authors: Hanrui Wang, Ching-Chun Chang, Chun-Shien Lu, Christopher Leckie, Isao Echizen,
- Abstract要約: GreedyPixelは、ディープニューラルネットワークの新しい敵攻撃フレームワークである。
これは、サロゲート由来の画素優先マップと、クエリフィードバックによって改善されたグレード、ピクセルごとの最適化を組み合わせたものだ。
以上の結果から,GreedyPixelはホワイトボックス攻撃とブラックボックス攻撃の精度ギャップを埋めることがわかった。
- 参考スコア(独自算出の注目度): 21.84393608348216
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep neural networks are highly vulnerable to adversarial examples that inputs with small, carefully crafted perturbations that cause misclassification, making adversarial attacks an essential tool for robustness evaluation. Existing black-box attacks fall into three categories: query-only, transfer-only, and query-and-transfer, and vary in perturbation pattern and optimization strategy. However, no prior method jointly achieves query-and-transfer guidance, pixel-wise sparsity, and training-free direct optimization, leaving a gap between black-box flexibility and white-box precision. We present GreedyPixel, a new attack framework that fills this gap by combining a surrogate-derived pixel priority map with greedy, per-pixel optimization refined by query feedback. This design reduces the exponential brute-force search space to a tractable linear procedure, guarantees monotonic loss decrease and convergence to a coordinate-wise optimum, and concentrates perturbations on robust, semantically meaningful pixels to improve perceptual quality. Extensive experiments on CIFAR-10 and ImageNet under both white-box and black-box settings demonstrate that GreedyPixel achieves state-of-the-art attack success rates and produces visually imperceptible perturbations. Our results show that GreedyPixel bridges the precision gap between white-box and black-box attacks and provides a practical framework for fine-grained robustness evaluation. The implementation is available at https://github.com/azrealwang/greedypixel.
- Abstract(参考訳): ディープニューラルネットワークは、小さな、慎重に構築された摂動によって誤分類を引き起こす敵の例に対して非常に脆弱であり、敵の攻撃が堅牢性評価に不可欠なツールとなる。
既存のブラックボックス攻撃は、クエリオンリー、転送オンリー、クエリアンドトランスファーの3つのカテゴリに分類され、摂動パターンと最適化戦略が異なる。
しかしながら、クエリ・アンド・トランスファーのガイダンス、ピクセル・ワイド・スパシティ、トレーニング不要な直接最適化を共同で達成する手法は存在せず、ブラックボックスの柔軟性とホワイトボックスの精度の差を残している。
本稿では,このギャップを埋める新たな攻撃フレームワークであるGreedyPixelを紹介する。
この設計は指数的ブルート力探索空間を抽出可能な線形手順に還元し、単調損失の減少と座標ワイド最適収束を保証し、頑健で意味論的に意味のあるピクセルに摂動を集中させ、知覚品質を向上させる。
ホワイトボックスとブラックボックスの両方の設定下でのCIFAR-10とImageNetの大規模な実験は、GreedyPixelが最先端の攻撃成功率を達成し、視覚的に知覚できない摂動を生み出すことを示した。
以上の結果から,GreedyPixelはホワイトボックス攻撃とブラックボックス攻撃の精度ギャップを埋めるものであり,きめ細かな堅牢性評価のための実用的枠組みを提供する。
実装はhttps://github.com/azrealwang/greedypixel.comで公開されている。
関連論文リスト
- CosPGD: an efficient white-box adversarial attack for pixel-wise prediction tasks [16.10247754923311]
初等射影勾配降下(PGD)のような敵攻撃は、モデルの堅牢性を評価する効果的な手段を提供する。
攻撃の全体的な効率を向上しながら、画像領域全体に対するよりバランスのとれたエラーを促す攻撃であるCosPGDを提案する。
論文 参考訳(メタデータ) (2023-02-04T17:59:30Z) - Scale-free Photo-realistic Adversarial Pattern Attack [20.818415741759512]
Generative Adversarial Networks (GAN)は、より意味論的に意味のあるテクスチャパターンを合成することによって、この問題に部分的に対処することができる。
本稿では,任意のスケールの画像に対して意味論的に意味のある敵対パターンを世界規模で合成する,スケールフリーな生成ベースアタックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-12T11:25:39Z) - Optimizing One-pixel Black-box Adversarial Attacks [0.0]
深層ニューラルネットワーク(DNN)の出力は、ブラックボックス設定での入力の小さな摂動によって変更することができる。
この研究は、攻撃中のネットワークへの呼び出し回数を減らすために、1ピクセル(2ピクセル)のブラックボックス攻撃を改善することを目指している。
論文 参考訳(メタデータ) (2022-04-30T12:42:14Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Adversarial examples by perturbing high-level features in intermediate
decoder layers [0.0]
画素を摂動する代わりに、入力画像のエンコーダ-デコーダ表現とデコーダの中間層を摂動する。
我々の摂動は、より長いくちばしや緑のくちばしのような意味的な意味を持っている。
本手法は,敵の攻撃に対して,敵の訓練に基づく防御技術が脆弱であることを示す。
論文 参考訳(メタデータ) (2021-10-14T07:08:15Z) - Adversarial Attacks on Black Box Video Classifiers: Leveraging the Power
of Geometric Transformations [49.06194223213629]
ビデオ分類モデルに対するブラックボックスの敵攻撃は、ほとんど調査されていない。
本研究では,探索空間の時間構造をパラメータ化することにより,そのような効果的な勾配を探索できることを実証する。
我々のアルゴリズムは本質的に、驚くほど少ないクエリで摂動を成功させる。
論文 参考訳(メタデータ) (2021-10-05T05:05:59Z) - Self-Supervised Iterative Contextual Smoothing for Efficient Adversarial
Defense against Gray- and Black-Box Attack [24.66829920826166]
グレーボックスとブラックボックス攻撃に対する新しい入力変換に基づく対角防御法を提案する。
我々の防御には計算に費用がかかる敵の訓練は必要ないが、入力変換によってその堅牢な精度にアプローチすることができる。
論文 参考訳(メタデータ) (2021-06-22T09:51:51Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Essential Features: Reducing the Attack Surface of Adversarial
Perturbations with Robust Content-Aware Image Preprocessing [5.831840281853604]
画像に摂動を加えることで、機械学習モデルを騙して誤った予測をすることができる。
このような摂動に対する防御の1つのアプローチは、摂動の影響を取り除くために画像前処理関数を適用することである。
本稿では,イメージをロバストな特徴空間に変換する,Essential Featuresと呼ばれる新しい画像前処理手法を提案する。
論文 参考訳(メタデータ) (2020-12-03T04:40:51Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Projection & Probability-Driven Black-Box Attack [205.9923346080908]
既存のブラックボックス攻撃は、高次元空間における過剰なクエリを必要とする。
本稿では,この問題を解決するために,プロジェクション&確率駆動型ブラックボックス攻撃(PPBA)を提案する。
我々の手法は、最先端の手法に比べて攻撃成功率の高いクエリを少なくとも24%削減する必要がある。
論文 参考訳(メタデータ) (2020-05-08T03:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。