論文の概要: GreedyPixel: Fine-Grained Black-Box Adversarial Attack Via Greedy Algorithm
- arxiv url: http://arxiv.org/abs/2501.14230v1
- Date: Fri, 24 Jan 2025 04:17:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:58:23.839507
- Title: GreedyPixel: Fine-Grained Black-Box Adversarial Attack Via Greedy Algorithm
- Title(参考訳): GreedyPixel:グリーディアルゴリズムによるブラックボックスの敵対攻撃
- Authors: Hanrui Wang, Ching-Chun Chang, Chun-Shien Lu, Christopher Leckie, Isao Echizen,
- Abstract要約: ディープラーニングモデルにとって重要な要件は、敵の攻撃に対する堅牢性を保証することだ。
高品質な逆数例を生成するために設計された画素ワイドグリーディアルゴリズムであるGreedyPixelを紹介する。
以上の結果から,GreedyPixelは勾配情報を必要とせずに,ホワイトボックス法に匹敵する攻撃成功率を達成した。
- 参考スコア(独自算出の注目度): 21.044241546344846
- License:
- Abstract: A critical requirement for deep learning models is ensuring their robustness against adversarial attacks. These attacks commonly introduce noticeable perturbations, compromising the visual fidelity of adversarial examples. Another key challenge is that while white-box algorithms can generate effective adversarial perturbations, they require access to the model gradients, limiting their practicality in many real-world scenarios. Existing attack mechanisms struggle to achieve similar efficacy without access to these gradients. In this paper, we introduce GreedyPixel, a novel pixel-wise greedy algorithm designed to generate high-quality adversarial examples using only query-based feedback from the target model. GreedyPixel improves computational efficiency in what is typically a brute-force process by perturbing individual pixels in sequence, guided by a pixel-wise priority map. This priority map is constructed by ranking gradients obtained from a surrogate model, providing a structured path for perturbation. Our results demonstrate that GreedyPixel achieves attack success rates comparable to white-box methods without the need for gradient information, and surpasses existing algorithms in black-box settings, offering higher success rates, reduced computational time, and imperceptible perturbations. These findings underscore the advantages of GreedyPixel in terms of attack efficacy, time efficiency, and visual quality.
- Abstract(参考訳): ディープラーニングモデルにとって重要な要件は、敵の攻撃に対する堅牢性を保証することだ。
これらの攻撃は一般的に目立った摂動をもたらし、敵対的な例の視覚的忠実さを損なう。
もう一つの重要な課題は、ホワイトボックスアルゴリズムが効果的な敵の摂動を生成できる一方で、モデル勾配へのアクセスを必要とし、現実のシナリオの多くにおいて実用性を制限することである。
既存の攻撃メカニズムは、これらの勾配にアクセスすることなく、同様の効果を達成するのに苦労する。
本稿では,対象モデルからのクエリベースフィードバックのみを用いて,高品質な逆数例を生成するために設計された,新しい画素ワイドグリーディアルゴリズムであるGreedyPixelを紹介する。
GreedyPixelは、個々のピクセルを順番に摂動することで、通常ブルートフォースのプロセスで計算効率を向上させる。
この優先度マップは、代理モデルから得られる勾配のランク付けによって構築され、摂動の構造化された経路を提供する。
以上の結果から,GreedyPixelはグラデーション情報を必要としないホワイトボックス手法に匹敵する攻撃成功率を実現し,ブラックボックス設定で既存のアルゴリズムを超越し,高い成功率,計算時間短縮,知覚不能な摂動を実現した。
これらの知見は、攻撃効果、時間効率、視覚的品質の観点から、GreedyPixelの利点を浮き彫りにした。
関連論文リスト
- CosPGD: an efficient white-box adversarial attack for pixel-wise prediction tasks [16.10247754923311]
初等射影勾配降下(PGD)のような敵攻撃は、モデルの堅牢性を評価する効果的な手段を提供する。
攻撃の全体的な効率を向上しながら、画像領域全体に対するよりバランスのとれたエラーを促す攻撃であるCosPGDを提案する。
論文 参考訳(メタデータ) (2023-02-04T17:59:30Z) - Scale-free Photo-realistic Adversarial Pattern Attack [20.818415741759512]
Generative Adversarial Networks (GAN)は、より意味論的に意味のあるテクスチャパターンを合成することによって、この問題に部分的に対処することができる。
本稿では,任意のスケールの画像に対して意味論的に意味のある敵対パターンを世界規模で合成する,スケールフリーな生成ベースアタックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-12T11:25:39Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Adversarial examples by perturbing high-level features in intermediate
decoder layers [0.0]
画素を摂動する代わりに、入力画像のエンコーダ-デコーダ表現とデコーダの中間層を摂動する。
我々の摂動は、より長いくちばしや緑のくちばしのような意味的な意味を持っている。
本手法は,敵の攻撃に対して,敵の訓練に基づく防御技術が脆弱であることを示す。
論文 参考訳(メタデータ) (2021-10-14T07:08:15Z) - Adversarial Attacks on Black Box Video Classifiers: Leveraging the Power
of Geometric Transformations [49.06194223213629]
ビデオ分類モデルに対するブラックボックスの敵攻撃は、ほとんど調査されていない。
本研究では,探索空間の時間構造をパラメータ化することにより,そのような効果的な勾配を探索できることを実証する。
我々のアルゴリズムは本質的に、驚くほど少ないクエリで摂動を成功させる。
論文 参考訳(メタデータ) (2021-10-05T05:05:59Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。