論文の概要: ScAR: Scaling Adversarial Robustness for LiDAR Object Detection
- arxiv url: http://arxiv.org/abs/2312.03085v1
- Date: Tue, 5 Dec 2023 19:03:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 17:05:01.803041
- Title: ScAR: Scaling Adversarial Robustness for LiDAR Object Detection
- Title(参考訳): ScAR:LiDARオブジェクト検出のための逆ロバストネスのスケーリング
- Authors: Xiaohu Lu and Hayder Radha
- Abstract要約: モデルの敵の堅牢性は、敵の攻撃に抵抗する能力である。
我々は,LiDARオブジェクト検出のためのブラックボックススケーリング逆攻撃法を提案する。
- 参考スコア(独自算出の注目度): 6.472434306724611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adversarial robustness of a model is its ability to resist adversarial
attacks in the form of small perturbations to input data. Universal adversarial
attack methods such as Fast Sign Gradient Method (FSGM) and Projected Gradient
Descend (PGD) are popular for LiDAR object detection, but they are often
deficient compared to task-specific adversarial attacks. Additionally, these
universal methods typically require unrestricted access to the model's
information, which is difficult to obtain in real-world applications. To
address these limitations, we present a black-box Scaling Adversarial
Robustness (ScAR) method for LiDAR object detection. By analyzing the
statistical characteristics of 3D object detection datasets such as KITTI,
Waymo, and nuScenes, we have found that the model's prediction is sensitive to
scaling of 3D instances. We propose three black-box scaling adversarial attack
methods based on the available information: model-aware attack,
distribution-aware attack, and blind attack. We also introduce a strategy for
generating scaling adversarial examples to improve the model's robustness
against these three scaling adversarial attacks. Comparison with other methods
on public datasets under different 3D object detection architectures
demonstrates the effectiveness of our proposed method.
- Abstract(参考訳): モデルの敵対的堅牢性は、入力データに対する小さな摂動という形で敵の攻撃に抵抗する能力である。
Fast Sign Gradient Method (FSGM) やProjected Gradient Descend (PGD) のような普遍的敵攻撃法はLiDARオブジェクト検出に人気があるが、タスク固有の敵攻撃に比べてしばしば不十分である。
さらに、これらの普遍的手法は一般に、実際の応用では入手が困難であるモデルの情報への無制限アクセスを必要とする。
これらの制約に対処するため、LiDARオブジェクト検出のためのブラックボックススケーリング適応ロバストネス(ScAR)法を提案する。
KITTI,Waymo,nuScenesなどの3Dオブジェクト検出データセットの統計特性を解析した結果,モデルの予測は3Dインスタンスのスケーリングに敏感であることが判明した。
本稿では,モデル認識攻撃,分布認識攻撃,ブラインド攻撃の3つのブラックボックススケーリング攻撃手法を提案する。
また,これら3つの対向攻撃に対するモデルの堅牢性を改善するために,対向スケーリングの例を生成する戦略も導入する。
異なる3次元オブジェクト検出アーキテクチャの公開データセットにおける他の手法との比較により,提案手法の有効性が示された。
関連論文リスト
- Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Approaching Outside: Scaling Unsupervised 3D Object Detection from 2D Scene [22.297964850282177]
教師なし3次元検出のためのLiDAR-2D Self-paced Learning (LiSe)を提案する。
RGB画像は、正確な2Dローカライゼーションキューを提供するLiDARデータの貴重な補完となる。
本フレームワークでは,適応型サンプリングと弱いモデルアグリゲーション戦略を組み込んだ自己評価学習パイプラインを考案する。
論文 参考訳(メタデータ) (2024-07-11T14:58:49Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - A Plot is Worth a Thousand Words: Model Information Stealing Attacks via
Scientific Plots [14.998272283348152]
敵がターゲットのMLモデルの出力を利用してモデルの情報を盗むことはよく知られている。
我々は、モデル情報盗難攻撃、すなわちモデルの科学的プロットのための新しいサイドチャネルを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:57:34Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。