論文の概要: Accelerating Targeted Hard-Label Adversarial Attacks in Low-Query Black-Box Settings
- arxiv url: http://arxiv.org/abs/2505.16313v1
- Date: Thu, 22 May 2025 07:10:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.109584
- Title: Accelerating Targeted Hard-Label Adversarial Attacks in Low-Query Black-Box Settings
- Title(参考訳): 低クエリブラックボックス設定における目標ハードラベル逆アタックの高速化
- Authors: Arjhun Swaminathan, Mete Akgün,
- Abstract要約: 画像分類のためのディープニューラルネットワークは、敵の例に弱いままである。
本稿では,ターゲット画像からのエッジ情報を用いて注意深く摂動する新たな攻撃であるTargeted Edge-informed Attack (TEA)を提案する。
当社のアプローチは、クエリ設定の低さにおいて、さまざまなモデルにわたる現在の最先端メソッドを一貫して上回ります。
- 参考スコア(独自算出の注目度): 1.104960878651584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks for image classification remain vulnerable to adversarial examples -- small, imperceptible perturbations that induce misclassifications. In black-box settings, where only the final prediction is accessible, crafting targeted attacks that aim to misclassify into a specific target class is particularly challenging due to narrow decision regions. Current state-of-the-art methods often exploit the geometric properties of the decision boundary separating a source image and a target image rather than incorporating information from the images themselves. In contrast, we propose Targeted Edge-informed Attack (TEA), a novel attack that utilizes edge information from the target image to carefully perturb it, thereby producing an adversarial image that is closer to the source image while still achieving the desired target classification. Our approach consistently outperforms current state-of-the-art methods across different models in low query settings (nearly 70\% fewer queries are used), a scenario especially relevant in real-world applications with limited queries and black-box access. Furthermore, by efficiently generating a suitable adversarial example, TEA provides an improved target initialization for established geometry-based attacks.
- Abstract(参考訳): 画像分類のためのディープニューラルネットワークは、いまだに敵対的な例(誤分類を引き起こす小さな、知覚不能な摂動)に弱いままである。
最終的な予測しかアクセスできないブラックボックス設定では、特定のターゲットクラスに誤分類することを目的としたターゲットアタックが特に難しい。
現在の最先端の手法は、ソースイメージとターゲットイメージを分離する決定境界の幾何学的特性を、画像自体から情報を取り込むのではなく利用していることが多い。
これとは対照的に,ターゲット画像からのエッジ情報を利用した新たな攻撃であるTargeted Edge-informed Attack (TEA)を提案する。
我々のアプローチは、クエリの少ない(クエリの約70%が使用される)モデルで、現在の最先端のメソッドを一貫して上回り、特にクエリが制限され、ブラックボックスへのアクセスが制限された現実世界のアプリケーションにおいて、シナリオである。
さらに、適切な対向例を効率的に生成することにより、TEAは、確立された幾何学的攻撃に対する目標初期化を改善する。
関連論文リスト
- AICAttack: Adversarial Image Captioning Attack with Attention-Based Optimization [13.045125782574306]
本稿では,画像上の微妙な摂動によって画像キャプションモデルを攻撃する新たな攻撃戦略であるAICAttackを提案する。
ブラックボックス攻撃シナリオ内で動作するため、我々のアルゴリズムはターゲットモデルのアーキテクチャ、パラメータ、勾配情報へのアクセスを必要としない。
複数の犠牲者モデルに対するベンチマークデータセットの広範な実験を通じて,AICAttackの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T08:27:23Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Object-Attentional Untargeted Adversarial Attack [11.800889173823945]
本研究では,標的外攻撃に対する対象意図的攻撃法を提案する。
具体的には、まず、対象検出領域をYOLOv4からHVPNetから有能な対象検出領域と交差させてオブジェクト領域を生成する。
次に,SimBA(Simple Black-box Adversarial Attack)を利用して,検出対象領域に対してのみ敵攻撃を行う。
論文 参考訳(メタデータ) (2022-10-16T07:45:13Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - On Generating Transferable Targeted Perturbations [102.3506210331038]
伝達性の高い標的摂動に対する新しい生成的アプローチを提案する。
私たちのアプローチは、ターゲットクラスの「乱れた画像分布」にマッチし、高いターゲット転送率につながります。
論文 参考訳(メタデータ) (2021-03-26T17:55:28Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。