論文の概要: Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame
- arxiv url: http://arxiv.org/abs/2204.13004v1
- Date: Wed, 27 Apr 2022 15:18:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:14:36.841980
- Title: Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame
- Title(参考訳): ユニバーサルホワイトフレームを用いた対向的パッチ攻撃者に対する防御
- Authors: Youngjoon Yu, Hong Joo Lee, Hakmin Lee, and Yong Man Ro
- Abstract要約: 高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
- 参考スコア(独自算出の注目度): 28.128458352103543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection has attracted great attention in the computer vision area
and has emerged as an indispensable component in many vision systems. In the
era of deep learning, many high-performance object detection networks have been
proposed. Although these detection networks show high performance, they are
vulnerable to adversarial patch attacks. Changing the pixels in a restricted
region can easily fool the detection network in the physical world. In
particular, person-hiding attacks are emerging as a serious problem in many
safety-critical applications such as autonomous driving and surveillance
systems. Although it is necessary to defend against an adversarial patch
attack, very few efforts have been dedicated to defending against person-hiding
attacks. To tackle the problem, in this paper, we propose a novel defense
strategy that mitigates a person-hiding attack by optimizing defense patterns,
while previous methods optimize the model. In the proposed method, a
frame-shaped pattern called a 'universal white frame' (UWF) is optimized and
placed on the outside of the image. To defend against adversarial patch
attacks, UWF should have three properties (i) suppressing the effect of the
adversarial patch, (ii) maintaining its original prediction, and (iii)
applicable regardless of images. To satisfy the aforementioned properties, we
propose a novel pattern optimization algorithm that can defend against the
adversarial patch. Through comprehensive experiments, we demonstrate that the
proposed method effectively defends against the adversarial patch attack.
- Abstract(参考訳): 物体検出はコンピュータビジョンの分野で大きな注目を集め、多くのビジョンシステムにおいて必須のコンポーネントとして登場してきた。
ディープラーニングの時代、多くの高性能物体検出ネットワークが提案されている。
これらの検出ネットワークは高い性能を示すが、敵パッチ攻撃に弱い。
制限領域における画素の変更は、物理世界の検出ネットワークを容易に騙すことができる。
特に、自動運転や監視システムなど、多くの安全クリティカルなアプリケーションにおいて、人力攻撃が深刻な問題として浮上している。
敵のパッチ攻撃から防御する必要があるが、人力攻撃から守るための努力はごくわずかである。
そこで本稿では,従来の手法ではモデルを最適化しつつ,防御パターンを最適化することで人力攻撃を緩和する新たな防御戦略を提案する。
提案手法では、画像の外側に「ユニバーサル・ホワイト・フレーム」(UWF)と呼ばれるフレーム形状のパターンを最適化して配置する。
敵のパッチ攻撃から守るために、UWFは3つの特性を持つべきである
(i)敵パッチの効果を抑制すること。
(ii)当初の予測を維持すること、及び
(三)画像にかかわらず該当する。
上記の特性を満たすために,敵パッチに対して防御可能な新しいパターン最適化アルゴリズムを提案する。
包括的実験により,提案手法が敵対的パッチ攻撃に対して効果的に防御できることを実証する。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Fight Fire with Fire: Combating Adversarial Patch Attacks using Pattern-randomized Defensive Patches [12.329244399788669]
オブジェクト検出は、敵のパッチ攻撃の影響を受けやすい。
本稿では,敵の攻撃を防御するための新規かつ汎用的な手法を提案する。
カナリアとウッドペッカーの2種類の防御パッチが特別に製作され、モデル入力に注入され、潜在的な敵のパッチを積極的に調査または対向させる。
論文 参考訳(メタデータ) (2023-11-10T15:36:57Z) - A Random-patch based Defense Strategy Against Physical Attacks for Face
Recognition Systems [3.6202815454709536]
顔認識システム(FRS)の物理的攻撃を頑健に検出するランダムパッチ型防御戦略を提案する。
本手法は実世界の顔認識システムに容易に適用でき,検出性能を高めるために他の防御方法にも拡張できる。
論文 参考訳(メタデータ) (2023-04-16T16:11:56Z) - CBA: Contextual Background Attack against Optical Aerial Detection in
the Physical World [8.826711009649133]
パッチベースの物理的攻撃はますます懸念を喚起している。
既存の手法のほとんどは地上で捕獲された標的を隠蔽することに焦点を当てており、これらの手法のいくつかは単に空中探知機を欺くように拡張されている。
本研究では,空中検出に対する新たな物理的攻撃フレームワークであるコンテキスト背景攻撃(CBA)を提案する。
論文 参考訳(メタデータ) (2023-02-27T05:10:27Z) - Defending Object Detectors against Patch Attacks with Out-of-Distribution Smoothing [21.174037250133622]
本稿では,敵対パッチの除去を目的としたアプローチの特性を特徴付けるOODSmootherを紹介する。
このフレームワークは、1)既存のオブジェクト検出器に対するパッチアタックを壊す新しいアダプティブアタック、2)セマンティックプリミティブを利用する新しいディフェンスアプローチであるSemPriorを設計するのに役立つ。
SemPriorだけでは40%増、既存の防衛と組み合わせれば60%増だ。
論文 参考訳(メタデータ) (2022-05-18T15:20:18Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。