論文の概要: Adversarial Texture for Fooling Person Detectors in the Physical World
- arxiv url: http://arxiv.org/abs/2203.03373v2
- Date: Tue, 8 Mar 2022 14:29:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 11:33:14.247354
- Title: Adversarial Texture for Fooling Person Detectors in the Physical World
- Title(参考訳): 物理世界の人物検出器を騙すための逆テクスチャ
- Authors: Zhanhao Hu, Siyuan Huang, Xiaopei Zhu, Xiaolin Hu, Fuchun Sun, Bo
Zhang
- Abstract要約: AdvTexture(AdvTexture)は、任意の形状の衣服をカバーできるので、そのような服を着ている人は、異なる角度から人検知器から隠れることができる。
本稿では,反復構造を持つAdvTextureを構築するために,Toroidal-Cropping-based Expandable Generative Attack (TC-EGA) という生成手法を提案する。
実験の結果、この服は物理的な世界で人検知器を騙すことができることがわかった。
- 参考スコア(独自算出の注目度): 38.39939625606267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, cameras equipped with AI systems can capture and analyze images to
detect people automatically. However, the AI system can make mistakes when
receiving deliberately designed patterns in the real world, i.e., physical
adversarial examples. Prior works have shown that it is possible to print
adversarial patches on clothes to evade DNN-based person detectors. However,
these adversarial examples could have catastrophic drops in the attack success
rate when the viewing angle (i.e., the camera's angle towards the object)
changes. To perform a multi-angle attack, we propose Adversarial Texture
(AdvTexture). AdvTexture can cover clothes with arbitrary shapes so that people
wearing such clothes can hide from person detectors from different viewing
angles. We propose a generative method, named Toroidal-Cropping-based
Expandable Generative Attack (TC-EGA), to craft AdvTexture with repetitive
structures. We printed several pieces of cloth with AdvTexure and then made
T-shirts, skirts, and dresses in the physical world. Experiments showed that
these clothes could fool person detectors in the physical world.
- Abstract(参考訳): 今日では、AIシステムを搭載したカメラが、画像をキャプチャして分析して人を自動的に検出できる。
しかし、AIシステムは現実世界で故意に設計されたパターン、すなわち物理的敵の例を受け取る際に間違いを犯すことがある。
以前の研究では、DNNベースの人検知器を避けるために、服に敵のパッチを印刷できることが示されている。
しかし、これらの対向的な例は、視角(カメラの物体に対する角度)が変化すると、攻撃成功率に壊滅的な低下をもたらす可能性がある。
マルチアングル攻撃を行うために,Adversarial Texture(AdvTexture)を提案する。
AdvTextureは、任意の形状の衣服をカバーできるので、そのような服を着ている人は、さまざまな角度から人検知器から隠れることができる。
本稿では,反復構造を持つAdvTextureを構築するために,Toroidal-Cropping-based Expandable Generative Attack (TC-EGA) という生成手法を提案する。
私たちはAdvTexureでいくつかの布を印刷し、物理世界でTシャツ、スカート、ドレスを作りました。
実験により、この服は物理的世界の人物検出器を騙すことができることがわかった。
関連論文リスト
- Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Unified Adversarial Patch for Cross-modal Attacks in the Physical World [11.24237636482709]
単一パッチにより同時に可視・近赤外物体検出装置を騙すための一元対向パッチを提案する。
可視・赤外線センサの異なるイメージング機構を考慮すると、我々の研究は対向パッチの形状をモデル化することに集中している。
その結果、我々の統一パッチは、それぞれ73.33%と69.17%のアタック成功率(ASR)を達成した。
論文 参考訳(メタデータ) (2023-07-15T17:45:17Z) - Physically Realizable Natural-Looking Clothing Textures Evade Person Detectors via 3D Modeling [19.575338491567813]
我々は3次元モデリングに基づく衣服の敵対的テクスチャを製作する。
本稿では,日常服の典型的なテクスチャに類似した,対向的なカモフラージュテクスチャ(AdvCaT)を提案する。
素材に3Dテクスチャを印刷し、Tシャツやズボンに仕立てました。
論文 参考訳(メタデータ) (2023-07-04T15:31:03Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Empirical Evaluation of Physical Adversarial Patch Attacks Against
Overhead Object Detection Models [2.2588953434934416]
逆パッチ(Adversarial patch)は、ニューラルネットワークベースのコンピュータビジョンモデルに悪用されたイメージである。
近年の研究では、これらの攻撃が物理的世界への移動に成功できることが示されている。
我々はさらに、より困難な条件下で、物理的世界における敵パッチ攻撃の有効性を検証した。
論文 参考訳(メタデータ) (2022-06-25T20:05:11Z) - FCA: Learning a 3D Full-coverage Vehicle Camouflage for Multi-view
Physical Adversarial Attack [5.476797414272598]
そこで本研究では,FCA(Full-coverage Camouflage Attack)を提案する。
具体的には、まず、平面でないカモフラージュテクスチャを全車表面上でレンダリングする。
次に、レンダリングされたカモフラージュされた車両をフォトリアリスティックなシナリオに変換する変換関数を導入する。
論文 参考訳(メタデータ) (2021-09-15T10:17:12Z) - Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors [72.7633556669675]
本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
既存のadversarial patchとは異なり、我々の新しい3dadversarial patchは、さまざまなビューの下で堅牢に最先端の深層物体検出器を騙すことができる。
論文 参考訳(メタデータ) (2021-04-22T14:36:08Z) - 3D Invisible Cloak [12.48087784777591]
実世界の人検知器に対する新たな物理的ステルス攻撃を提案する。
提案手法は, 対向パッチを生成し, 実際の衣服に印刷し, 3次元で見えないマントを作る。
論文 参考訳(メタデータ) (2020-11-27T12:43:04Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。