論文の概要: Adversarial Attacks on Camera-LiDAR Models for 3D Car Detection
- arxiv url: http://arxiv.org/abs/2103.09448v1
- Date: Wed, 17 Mar 2021 05:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 20:08:13.948304
- Title: Adversarial Attacks on Camera-LiDAR Models for 3D Car Detection
- Title(参考訳): 3次元車検出のためのカメラLiDARモデルの逆攻撃
- Authors: Mazen Abdelfattah, Kaiwen Yuan, Z. Jane Wang, and Rabab Ward
- Abstract要約: ほとんどの自動運転車は知覚のためにLiDARとRGBカメラセンサーを使っている。
深層ニューラルネットワーク(DNN)は、3D検出で最先端の性能を達成しました。
我々は,各タイプに対する普遍的かつ物理的に実現可能な敵攻撃を提案し,その脆弱性を攻撃と対比する。
- 参考スコア(独自算出の注目度): 15.323682536206574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most autonomous vehicles (AVs) rely on LiDAR and RGB camera sensors for
perception. Using these point cloud and image data, perception models based on
deep neural nets (DNNs) have achieved state-of-the-art performance in 3D
detection. The vulnerability of DNNs to adversarial attacks have been heavily
investigated in the RGB image domain and more recently in the point cloud
domain, but rarely in both domains simultaneously. Multi-modal perception
systems used in AVs can be divided into two broad types: cascaded models which
use each modality independently, and fusion models which learn from different
modalities simultaneously. We propose a universal and physically realizable
adversarial attack for each type, and study and contrast their respective
vulnerabilities to attacks. We place a single adversarial object with specific
shape and texture on top of a car with the objective of making this car evade
detection. Evaluating on the popular KITTI benchmark, our adversarial object
made the host vehicle escape detection by each model type nearly 50% of the
time. The dense RGB input contributed more to the success of the adversarial
attacks on both cascaded and fusion models. We found that the fusion model was
relatively more robust to adversarial attacks than the cascaded model.
- Abstract(参考訳): ほとんどの自動運転車(AV)は知覚のためにLiDARとRGBカメラセンサーに依存している。
これらの点雲と画像データを用いて、ディープニューラルネット(DNN)に基づく知覚モデルは、3D検出において最先端のパフォーマンスを達成した。
逆境攻撃に対するdnnの脆弱性は、rgbイメージドメインと近年のpoint cloudドメインでよく研究されてきたが、両方のドメインを同時に扱うことは稀である。
avsで使用されるマルチモーダル知覚システムは、それぞれのモーダリティを独立に使用するカスケードモデルと、異なるモーダリティから同時に学習する融合モデルという2つの幅広いタイプに分けられる。
我々は,各タイプに対する普遍的かつ物理的に実現可能な敵攻撃を提案し,その脆弱性を攻撃と対比する。
本研究では,車体上に特定の形状とテクスチャを持つ1つの対向物体を配置し,車体検出を回避した。
一般的なKITTIベンチマークに基づいて、我々の敵対対象は、各モデルタイプ毎の50%近い時間で、ホスト車両の脱出を検知した。
密度の高いRGB入力は、カスケードモデルと融合モデルの両方に対する敵攻撃の成功に寄与した。
その結果,核融合モデルの方が敵攻撃に対して比較的堅牢であることが判明した。
関連論文リスト
- Fusion is Not Enough: Single Modal Attacks on Fusion Models for 3D
Object Detection [33.0406308223244]
本稿では,高度なカメラ-LiDAR融合型3次元物体検出モデルを対象として,カメラ専用対向攻撃による攻撃フレームワークを提案する。
提案手法では,2段階の最適化手法を用いて,まず,敵対的攻撃下での脆弱な画像領域を徹底的に評価する。
論文 参考訳(メタデータ) (2023-04-28T03:39:00Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - AutoAlignV2: Deformable Feature Aggregation for Dynamic Multi-Modal 3D
Object Detection [17.526914782562528]
我々はAutoAlign上に構築された高速で強力なマルチモーダル3D検出フレームワークであるAutoAlignV2を提案する。
我々の最良のモデルは、nuScenesテストのリーダーボード上で72.4 NDSに達し、新しい最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-07-21T06:17:23Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - Automating Defense Against Adversarial Attacks: Discovery of
Vulnerabilities and Application of Multi-INT Imagery to Protect Deployed
Models [0.0]
マルチスペクトル画像アレイとアンサンブル学習者が敵対的攻撃と戦うことを評価します。
サイバーネットワークを守るために、攻撃的(赤チーム)と防御的(青チーム)の両方のアプローチのテクニックを大まかに組み合わせます。
論文 参考訳(メタデータ) (2021-03-29T19:07:55Z) - Towards Universal Physical Attacks On Cascaded Camera-Lidar 3D Object
Detection Models [16.7400223249581]
マルチモーダル深層学習ネットワーク(DNN)に対する普遍的かつ物理的に実現可能な敵対的攻撃を提案する。
提案されたユニバーサルマルチモーダル攻撃は、モデルが車を73%近く検出する能力を低下させることに成功したことを示す。
論文 参考訳(メタデータ) (2021-01-26T12:40:34Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。