論文の概要: TPatch: A Triggered Physical Adversarial Patch
- arxiv url: http://arxiv.org/abs/2401.00148v1
- Date: Sat, 30 Dec 2023 06:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 18:41:57.679026
- Title: TPatch: A Triggered Physical Adversarial Patch
- Title(参考訳): TPatch: トリガーされた物理的敵対的パッチ
- Authors: Wenjun Zhu, Xiaoyu Ji, Yushi Cheng, Shibo Zhang, Wenyuan Xu
- Abstract要約: 音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
- 参考スコア(独自算出の注目度): 19.768494127237393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles increasingly utilize the vision-based perception module
to acquire information about driving environments and detect obstacles. Correct
detection and classification are important to ensure safe driving decisions.
Existing works have demonstrated the feasibility of fooling the perception
models such as object detectors and image classifiers with printed adversarial
patches. However, most of them are indiscriminately offensive to every passing
autonomous vehicle. In this paper, we propose TPatch, a physical adversarial
patch triggered by acoustic signals. Unlike other adversarial patches, TPatch
remains benign under normal circumstances but can be triggered to launch a
hiding, creating or altering attack by a designed distortion introduced by
signal injection attacks towards cameras. To avoid the suspicion of human
drivers and make the attack practical and robust in the real world, we propose
a content-based camouflage method and an attack robustness enhancement method
to strengthen it. Evaluations with three object detectors, YOLO V3/V5 and
Faster R-CNN, and eight image classifiers demonstrate the effectiveness of
TPatch in both the simulation and the real world. We also discuss possible
defenses at the sensor, algorithm, and system levels.
- Abstract(参考訳): 自動運転車は、視覚ベースの知覚モジュールを利用して、運転環境に関する情報を取得し、障害物を検出する。
正しい検出と分類は、安全な運転決定を保証するために重要である。
既存の研究は、オブジェクト検出器や画像分類器などの認識モデルを印刷対向パッチで騙す可能性を示している。
しかし、ほとんどの車両は通過する自動運転車に対して無差別に攻撃的である。
本稿では,音響信号によって引き起こされる物理対向パッチTPatchを提案する。
他の敵のパッチとは異なり、TPatchは通常の状況下でも良性であり続けるが、カメラに対する信号注入攻撃によって導入された設計された歪みによって隠れ、生成、または変更する攻撃を起動する引き金となる。
本研究では,人間ドライバーの疑念を回避し,実世界での攻撃を実用的で堅牢にするために,コンテンツベースカモフラージュ法と攻撃堅牢性向上法を提案する。
3つの物体検出器、YOLO V3/V5とFaster R-CNNと8つの画像分類器による評価は、シミュレーションと実世界の両方においてTPatchの有効性を示す。
また,センサ,アルゴリズム,システムレベルでの防御の可能性についても論じる。
関連論文リスト
- STOP! Camera Spoofing via the in-Vehicle IP Network [4.14360329494344]
我々は、GigE Visionプロトコルを利用するアタックツールを作成します。
次に、2種類の受動異常検知器を解析し、そのような攻撃を識別する。
本稿では,映像伝送中にカメラパラメータをランダムに調整する新しいアクティブディフェンス機構を提案する。
論文 参考訳(メタデータ) (2024-10-07T18:30:22Z) - Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Fooling the Eyes of Autonomous Vehicles: Robust Physical Adversarial
Examples Against Traffic Sign Recognition Systems [10.310327880799017]
逆例(AE)はディープニューラルネットワーク(DNN)を騙すことができる
本稿では,実世界の物体検出装置に対して,ロバストな物理AEを生成するための系統的パイプラインを提案する。
YOLO v5ベースの交通信号認識システムを攻撃する場合, パイプラインから生成された物理AEは有効かつ堅牢であることを示す実験を行った。
論文 参考訳(メタデータ) (2022-01-17T03:24:31Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - You Cannot Easily Catch Me: A Low-Detectable Adversarial Patch for
Object Detectors [12.946967210071032]
敵対的パッチは、顔認識システム、監視システム、自動運転車を騙すことができる。
既存のほとんどの敵パッチは、敵パッチ検出器によって外され、無効化され、拒否される。
本稿では,テクスチャに一貫性のある対向パッチで物体検出器を攻撃する新しい手法,低検出可能な対向パッチを提案する。
論文 参考訳(メタデータ) (2021-09-30T14:47:29Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。