論文の概要: Brightness-Restricted Adversarial Attack Patch
- arxiv url: http://arxiv.org/abs/2307.00421v1
- Date: Sat, 1 Jul 2023 20:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 16:16:12.678459
- Title: Brightness-Restricted Adversarial Attack Patch
- Title(参考訳): 輝度制限型逆アタックパッチ
- Authors: Mingzhen Shao
- Abstract要約: 本稿では,光特性を利用した輝度制限パッチ(BrPatch)を導入し,画像独立性を保ちながら顕著さを抑える。
実験の結果,攻撃パッチは輝度に強い冗長性を示し,色移動やノイズに耐性があることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attack patches have gained increasing attention due to their
practical applicability in physical-world scenarios. However, the bright colors
used in attack patches represent a significant drawback, as they can be easily
identified by human observers. Moreover, even though these attacks have been
highly successful in deceiving target networks, which specific features of the
attack patch contribute to its success are still unknown. Our paper introduces
a brightness-restricted patch (BrPatch) that uses optical characteristics to
effectively reduce conspicuousness while preserving image independence. We also
conducted an analysis of the impact of various image features (such as color,
texture, noise, and size) on the effectiveness of an attack patch in
physical-world deployment. Our experiments show that attack patches exhibit
strong redundancy to brightness and are resistant to color transfer and noise.
Based on our findings, we propose some additional methods to further reduce the
conspicuousness of BrPatch. Our findings also explain the robustness of attack
patches observed in physical-world scenarios.
- Abstract(参考訳): 物理世界のシナリオにおける現実的な適用性から、敵の攻撃パッチが注目されている。
しかし、攻撃パッチで使用される明るい色は、人間の観察者によって容易に識別できるため、大きな欠点である。
さらに、これらの攻撃はターゲットネットワークの無効化に成功しているが、攻撃パッチの特定の特徴がその成功に寄与するかどうかは不明だ。
本稿では,光特性を用いた輝度制限パッチ(BrPatch)を導入し,画像独立性を保ちながら顕著さを効果的に低減する。
また,様々な画像特徴(色,テクスチャ,ノイズ,サイズなど)が,物理的世界展開における攻撃パッチの効果に与える影響について分析を行った。
実験の結果,攻撃パッチは輝度に強い冗長性を示し,色移動やノイズに耐性を示すことがわかった。
そこで本研究では,BrPatchの顕著さをさらに低減するための追加手法を提案する。
また, 物理的シナリオにおける攻撃パッチの堅牢性についても考察した。
関連論文リスト
- CBA: Contextual Background Attack against Optical Aerial Detection in
the Physical World [8.826711009649133]
パッチベースの物理的攻撃はますます懸念を喚起している。
既存の手法のほとんどは地上で捕獲された標的を隠蔽することに焦点を当てており、これらの手法のいくつかは単に空中探知機を欺くように拡張されている。
本研究では,空中検出に対する新たな物理的攻撃フレームワークであるコンテキスト背景攻撃(CBA)を提案する。
論文 参考訳(メタデータ) (2023-02-27T05:10:27Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z) - PatchAttack: A Black-box Texture-based Attack with Reinforcement
Learning [31.255179167694887]
パッチベースの攻撃は、誤分類を引き起こす入力に認識できるが局所的な変更をもたらす。
提案したPatchAttackは、クエリ効率が高く、ターゲットと非ターゲットの両方の攻撃のモデルを壊すことができる。
論文 参考訳(メタデータ) (2020-04-12T19:31:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。