論文の概要: How stealthy is stealthy? Studying the Efficacy of Black-Box Adversarial Attacks in the Real World
- arxiv url: http://arxiv.org/abs/2506.05382v1
- Date: Tue, 03 Jun 2025 08:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.111027
- Title: How stealthy is stealthy? Studying the Efficacy of Black-Box Adversarial Attacks in the Real World
- Title(参考訳): ステルス性はどんなものか? 現実世界におけるブラックボックスの敵対的攻撃の有効性について
- Authors: Francesco Panebianco, Mario D'Onghia, Stefano Zanero aand Michele Carminati,
- Abstract要約: 本研究では,コンピュータビジョンにおけるブラックボックス攻撃について検討する。
ECLIPSE, サンプル勾配に基づくガウス的ぼかしを用いた新たな攻撃法と局所代理モデルを提案する。
- 参考スコア(独自算出の注目度): 1.799933345199395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning systems, critical in domains like autonomous vehicles, are vulnerable to adversarial examples (crafted inputs designed to mislead classifiers). This study investigates black-box adversarial attacks in computer vision. This is a realistic scenario, where attackers have query-only access to the target model. Three properties are introduced to evaluate attack feasibility: robustness to compression, stealthiness to automatic detection, and stealthiness to human inspection. State-of-the-Art methods tend to prioritize one criterion at the expense of others. We propose ECLIPSE, a novel attack method employing Gaussian blurring on sampled gradients and a local surrogate model. Comprehensive experiments on a public dataset highlight ECLIPSE's advantages, demonstrating its contribution to the trade-off between the three properties.
- Abstract(参考訳): 自動運転車のような分野において重要なディープラーニングシステムは、敵対的な例(分類器を誤解させるように設計された入力)に対して脆弱である。
本研究では,コンピュータビジョンにおけるブラックボックス攻撃について検討する。
これは現実的なシナリオであり、攻撃者はターゲットモデルにクエリのみアクセスすることができる。
攻撃可能性を評価するために、圧縮に対する堅牢性、自動検出に対するステルス性、人間の検査に対するステルス性という3つの特性が導入された。
ステート・オブ・ザ・アーツの手法は、1つの基準を他の基準を犠牲にして優先順位付けする傾向がある。
ECLIPSE, サンプル勾配に基づくガウス的ぼかしを用いた新たな攻撃法と局所代理モデルを提案する。
公開データセットに関する包括的な実験は、ECLIPSEの利点を強調し、3つのプロパティ間のトレードオフへの貢献を実証している。
関連論文リスト
- Variance-Based Defense Against Blended Backdoor Attacks [0.0]
バックドア攻撃は、AIモデルをターゲットにした微妙ながら効果的なサイバー攻撃のクラスである。
本稿では,与えられたデータセット上でモデルをトレーニングし,有毒なクラスを検出し,攻撃トリガの重要部分を抽出する新しい防御手法を提案する。
論文 参考訳(メタデータ) (2025-06-02T09:01:35Z) - Robustness Analysis against Adversarial Patch Attacks in Fully Unmanned Stores [1.1767330101986737]
敵パッチ攻撃(Hiding, Creating, Altering)の3種類について検討する。
また,対象のクラスオブジェクトの色情報に対する攻撃者の知識を活用することで,新たな色ヒストグラム類似度損失関数を導入する。
本研究は、無人店舗を敵の脅威から守るための堅牢な防衛戦略の必要性を浮き彫りにするものである。
論文 参考訳(メタデータ) (2025-05-13T06:24:32Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。