論文の概要: Adversarial Attacks on Event-Based Pedestrian Detectors: A Physical Approach
- arxiv url: http://arxiv.org/abs/2503.00377v1
- Date: Sat, 01 Mar 2025 07:06:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:19:14.812372
- Title: Adversarial Attacks on Event-Based Pedestrian Detectors: A Physical Approach
- Title(参考訳): イベントベース歩行者検知器の逆攻撃 : 物理的アプローチ
- Authors: Guixu Lin, Muyao Niu, Qingtian Zhu, Zhengwei Yin, Zhuoxiao Li, Shengfeng He, Yinqiang Zheng,
- Abstract要約: この研究は、イベント駆動型歩行者検出器に対する物理的敵攻撃を初めて調査した。
本稿では,2次元テクスチャ最適化問題として,デジタルドメインにおけるエンド・ツー・エンドのテクスチャ・フレームワークを構築した。
以上の結果から,デジタル領域で同定されたテクスチャは強い対角特性を有することが明らかとなった。
- 参考スコア(独自算出の注目度): 44.952828512869644
- License:
- Abstract: Event cameras, known for their low latency and high dynamic range, show great potential in pedestrian detection applications. However, while recent research has primarily focused on improving detection accuracy, the robustness of event-based visual models against physical adversarial attacks has received limited attention. For example, adversarial physical objects, such as specific clothing patterns or accessories, can exploit inherent vulnerabilities in these systems, leading to misdetections or misclassifications. This study is the first to explore physical adversarial attacks on event-driven pedestrian detectors, specifically investigating whether certain clothing patterns worn by pedestrians can cause these detectors to fail, effectively rendering them unable to detect the person. To address this, we developed an end-to-end adversarial framework in the digital domain, framing the design of adversarial clothing textures as a 2D texture optimization problem. By crafting an effective adversarial loss function, the framework iteratively generates optimal textures through backpropagation. Our results demonstrate that the textures identified in the digital domain possess strong adversarial properties. Furthermore, we translated these digitally optimized textures into physical clothing and tested them in real-world scenarios, successfully demonstrating that the designed textures significantly degrade the performance of event-based pedestrian detection models. This work highlights the vulnerability of such models to physical adversarial attacks.
- Abstract(参考訳): イベントカメラは低レイテンシと高ダイナミックレンジで知られており、歩行者検出アプリケーションに大きな可能性を秘めている。
しかし、近年の研究は主に検出精度の向上に焦点が当てられているが、物理的攻撃に対する事象ベースの視覚モデルの堅牢性は、あまり注目されていない。
例えば、特定の衣服パターンやアクセサリーのような敵対的な物理的オブジェクトは、これらのシステムに固有の脆弱性を悪用し、誤検出や誤分類につながる可能性がある。
この研究は、イベント駆動型歩行者検知器に対する物理的敵対攻撃を初めて調査し、特に歩行者が着用する衣服パターンがこれらの検知器を失敗させ、その人を検出することができないかどうかを調査した。
そこで我々は,2次元テクスチャ最適化問題として,敵対的な衣服テクスチャの設計をフレーミングして,デジタルドメインにおけるエンド・ツー・エンドの敵対的フレームワークを開発した。
効果的な対向損失関数を構築することにより、バックプロパゲーションにより最適なテクスチャを反復的に生成する。
以上の結果から,デジタル領域で同定されたテクスチャは強い対角特性を有することが明らかとなった。
さらに、これらのデジタル最適化されたテクスチャを物理服に翻訳し、実際のシナリオでテストし、デザインされたテクスチャがイベントベース歩行者検出モデルの性能を著しく低下させることを示した。
この研究は、物理的な敵攻撃に対するそのようなモデルの脆弱性を強調している。
関連論文リスト
- Out-of-Bounding-Box Triggers: A Stealthy Approach to Cheat Object Detectors [18.23151352064318]
本稿では,境界ボックスの外側で動作し,モデルに検出不能なオブジェクトを描画する不明瞭な対向トリガを提案する。
高品質トリガ作成のためのFG技術とUAPGD(Universal Auto-PGD)最適化戦略を提案することにより、このアプローチをさらに強化する。
本手法の有効性を実験により検証し,デジタル環境と物理環境の両方で高い性能を示す。
論文 参考訳(メタデータ) (2024-10-14T02:15:48Z) - Unified Adversarial Patch for Cross-modal Attacks in the Physical World [11.24237636482709]
単一パッチにより同時に可視・近赤外物体検出装置を騙すための一元対向パッチを提案する。
可視・赤外線センサの異なるイメージング機構を考慮すると、我々の研究は対向パッチの形状をモデル化することに集中している。
その結果、我々の統一パッチは、それぞれ73.33%と69.17%のアタック成功率(ASR)を達成した。
論文 参考訳(メタデータ) (2023-07-15T17:45:17Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Differential Evolution based Dual Adversarial Camouflage: Fooling Human
Eyes and Object Detectors [0.190365714903665]
本研究では,2段階からなる二重対向カモフラージュ法(DE_DAC)を提案する。
第1段階では、レンダリング対象とシーン画像との差を最小限に抑えるために、グローバルテクスチャを最適化する。
第2段階では、局所的なテクスチャを最適化する3つの損失関数を設計し、物体検出を非効率にする。
論文 参考訳(メタデータ) (2022-10-17T09:07:52Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Empirical Evaluation of Physical Adversarial Patch Attacks Against
Overhead Object Detection Models [2.2588953434934416]
逆パッチ(Adversarial patch)は、ニューラルネットワークベースのコンピュータビジョンモデルに悪用されたイメージである。
近年の研究では、これらの攻撃が物理的世界への移動に成功できることが示されている。
我々はさらに、より困難な条件下で、物理的世界における敵パッチ攻撃の有効性を検証した。
論文 参考訳(メタデータ) (2022-06-25T20:05:11Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - CCA: Exploring the Possibility of Contextual Camouflage Attack on Object
Detection [16.384831731988204]
対象検出器の性能に影響を及ぼすためのコンテキストカモフラージュ攻撃(CCA)アルゴリズムを提案する。
本稿では,フォトリアリスティック・シミュレートされた環境における進化的探索戦略と対向機械学習の相互作用について述べる。
提案されたカモフラージュは、最先端の物体検出器の多くに有効であることが検証されている。
論文 参考訳(メタデータ) (2020-08-19T06:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。