論文の概要: LiDAttack: Robust Black-box Attack on LiDAR-based Object Detection
- arxiv url: http://arxiv.org/abs/2411.01889v1
- Date: Mon, 04 Nov 2024 08:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:43:09.086893
- Title: LiDAttack: Robust Black-box Attack on LiDAR-based Object Detection
- Title(参考訳): LiDAttack: LiDARベースのオブジェクト検出におけるロバストブラックボックス攻撃
- Authors: Jinyin Chen, Danxin Liao, Sheng Xiang, Haibin Zheng,
- Abstract要約: LiDAttackは、LiDARセンサーに対する堅牢なブラックボックス敵攻撃である。
実験は、3つの支配的なオブジェクト検出モデルを持つ3つのデータセット(KITTI、nuScenes、自己構築データ)で実施される。
その結果、LiDAttackは広範囲の物体検出モデルをターゲットにしており、攻撃成功率(ASR)は最大90%であることがわかった。
- 参考スコア(独自算出の注目度): 5.727912884983492
- License:
- Abstract: Since DNN is vulnerable to carefully crafted adversarial examples, adversarial attack on LiDAR sensors have been extensively studied. We introduce a robust black-box attack dubbed LiDAttack. It utilizes a genetic algorithm with a simulated annealing strategy to strictly limit the location and number of perturbation points, achieving a stealthy and effective attack. And it simulates scanning deviations, allowing it to adapt to dynamic changes in real world scenario variations. Extensive experiments are conducted on 3 datasets (i.e., KITTI, nuScenes, and self-constructed data) with 3 dominant object detection models (i.e., PointRCNN, PointPillar, and PV-RCNN++). The results reveal the efficiency of the LiDAttack when targeting a wide range of object detection models, with an attack success rate (ASR) up to 90%.
- Abstract(参考訳): DNNは、慎重に構築された敵の例に弱いため、LiDARセンサーに対する敵攻撃は広範囲に研究されている。
我々は、LiDAttackと呼ばれる堅牢なブラックボックス攻撃を導入する。
シミュレーションされたアニーリング戦略を用いた遺伝的アルゴリズムを用いて、摂動点の位置と数を厳格に制限し、ステルスで効果的な攻撃を達成している。
そして、スキャンの偏差をシミュレートし、現実世界のシナリオのバリエーションの動的変化に適応する。
大規模な実験は3つのデータセット(KITTI、nuScenes、自己構築データ)と3つの支配的なオブジェクト検出モデル(PointRCNN、PointPillar、PV-RCNN++)で実施される。
その結果、LiDAttackは広範囲の物体検出モデルをターゲットにしており、攻撃成功率(ASR)は最大90%であることがわかった。
関連論文リスト
- Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Approaching Outside: Scaling Unsupervised 3D Object Detection from 2D Scene [22.297964850282177]
教師なし3次元検出のためのLiDAR-2D Self-paced Learning (LiSe)を提案する。
RGB画像は、正確な2Dローカライゼーションキューを提供するLiDARデータの貴重な補完となる。
本フレームワークでは,適応型サンプリングと弱いモデルアグリゲーション戦略を組み込んだ自己評価学習パイプラインを考案する。
論文 参考訳(メタデータ) (2024-07-11T14:58:49Z) - ScAR: Scaling Adversarial Robustness for LiDAR Object Detection [6.472434306724611]
モデルの敵の堅牢性は、敵の攻撃に抵抗する能力である。
我々は,LiDARオブジェクト検出のためのブラックボックススケーリング逆攻撃法を提案する。
論文 参考訳(メタデータ) (2023-12-05T19:03:33Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - ADoPT: LiDAR Spoofing Attack Detection Based on Point-Level Temporal
Consistency [11.160041268858773]
ディープニューラルネットワーク(DNN)は、自動運転車(AV)のためのLiDARベースの知覚システムにますます統合されている
我々は,攻撃者がLiDARデータに偽のオブジェクトを注入し,その環境を誤解釈して誤った判断を下すという,LiDAR偽造攻撃の課題に対処することを目指している。
ADoPT (Anomaly Detection based on Point-level Temporal consistency) は、連続するフレーム間の時間的一貫性を定量的に測定し、ポイントクラスタのコヒーレンシーに基づいて異常物体を同定する。
nuScenesデータセットを用いた評価では、アルゴリズムは様々なLiDARスプーフィング攻撃に対して効果的に対応し、低(低)を実現している。
論文 参考訳(メタデータ) (2023-10-23T02:31:31Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。