論文の概要: Revisiting Physically Realizable Adversarial Object Attack against LiDAR-based Detection: Clarifying Problem Formulation and Experimental Protocols
- arxiv url: http://arxiv.org/abs/2507.18457v1
- Date: Thu, 24 Jul 2025 14:37:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.81384
- Title: Revisiting Physically Realizable Adversarial Object Attack against LiDAR-based Detection: Clarifying Problem Formulation and Experimental Protocols
- Title(参考訳): LiDARに基づく検出に対する物理的に実現可能な逆対象攻撃の再検討:問題の定式化と実験プロトコルの明確化
- Authors: Luo Cheng, Hanwei Zhang, Lijun Zhang, Holger Hermanns,
- Abstract要約: 3次元物体検出における適応的ロバスト性は、現実世界のシナリオに広く応用されているため、重要な研究領域である。
本稿では,物理対物攻撃の鍵となる要素を抽象化する,デバイスに依存しない標準化されたフレームワークを提案する。
我々は,現実のLiDAR知覚において,攻撃の成功に影響を与える要因と,敵の堅牢性に対する高度な理解に関する洞察を提供する。
- 参考スコア(独自算出の注目度): 11.792107959683925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness in LiDAR-based 3D object detection is a critical research area due to its widespread application in real-world scenarios. While many digital attacks manipulate point clouds or meshes, they often lack physical realizability, limiting their practical impact. Physical adversarial object attacks remain underexplored and suffer from poor reproducibility due to inconsistent setups and hardware differences. To address this, we propose a device-agnostic, standardized framework that abstracts key elements of physical adversarial object attacks, supports diverse methods, and provides open-source code with benchmarking protocols in simulation and real-world settings. Our framework enables fair comparison, accelerates research, and is validated by successfully transferring simulated attacks to a physical LiDAR system. Beyond the framework, we offer insights into factors influencing attack success and advance understanding of adversarial robustness in real-world LiDAR perception.
- Abstract(参考訳): LiDARをベースとした3次元物体検出における逆方向のロバスト性は、現実のシナリオに広く応用されているため、重要な研究領域である。
多くのデジタルアタックはポイントクラウドやメッシュを操作するが、物理的な実現性に欠けることが多く、実際の影響を制限している。
物理的敵物攻撃はいまだ未発見のままであり、不整合セットアップとハードウェアの違いにより再現性に乏しい。
そこで本研究では,物理対物攻撃の鍵となる要素を抽象化し,多様なメソッドをサポートし,シミュレーションおよび実世界設定におけるベンチマークプロトコルを備えたオープンソースコードを提供する,デバイスに依存しない標準化されたフレームワークを提案する。
本フレームワークは,シミュレーションした攻撃を物理LiDARシステムに転送することで,公正な比較を可能にし,研究を加速し,検証を行う。
この枠組みを超えて、実世界のLiDAR知覚において、攻撃の成功に影響を及ぼす要因の洞察と、敵の堅牢性に対する高度な理解を提供する。
関連論文リスト
- AdvReal: Adversarial Patch Generation Framework with Application to Adversarial Safety Evaluation of Object Detection Systems [3.1980492662961515]
本研究では,2次元と3次元の両方のサンプルを対象とした統合型対向訓練フレームワークを提案する。
本研究では,非剛性表面モデリングと現実的な3次元マッチング機構を組み込んだ対向型サンプル現実性拡張手法を提案する。
論文 参考訳(メタデータ) (2025-05-22T08:54:03Z) - Defense against Joint Poison and Evasion Attacks: A Case Study of DERMS [2.632261166782093]
IDSの第1の枠組みは, ジョイント中毒や回避攻撃に対して堅牢である。
IEEE-13バスフィードモデルにおける本手法のロバスト性を検証する。
論文 参考訳(メタデータ) (2024-05-05T16:24:30Z) - ADoPT: LiDAR Spoofing Attack Detection Based on Point-Level Temporal
Consistency [11.160041268858773]
ディープニューラルネットワーク(DNN)は、自動運転車(AV)のためのLiDARベースの知覚システムにますます統合されている
我々は,攻撃者がLiDARデータに偽のオブジェクトを注入し,その環境を誤解釈して誤った判断を下すという,LiDAR偽造攻撃の課題に対処することを目指している。
ADoPT (Anomaly Detection based on Point-level Temporal consistency) は、連続するフレーム間の時間的一貫性を定量的に測定し、ポイントクラスタのコヒーレンシーに基づいて異常物体を同定する。
nuScenesデータセットを用いた評価では、アルゴリズムは様々なLiDARスプーフィング攻撃に対して効果的に対応し、低(低)を実現している。
論文 参考訳(メタデータ) (2023-10-23T02:31:31Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - X-Adv: Physical Adversarial Object Attacks against X-ray Prohibited Item
Detection [113.10386151761682]
テクスチャフリーなX線画像を対象とした敵攻撃は未発見である。
本稿では,X線禁止項目検出を目的とした敵攻撃の研究に向けて第一歩を踏み出す。
我々は,X線検出器を消毒できる対向剤として機能する物理的に印刷可能な金属を生成するために,X-Advを提案する。
論文 参考訳(メタデータ) (2023-02-19T06:31:17Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Understanding Object Detection Through An Adversarial Lens [14.976840260248913]
本稿では, 対向レンズ下での深部物体検出装置の脆弱性を分析し評価するための枠組みを提案する。
提案手法は, リアルタイムオブジェクト検出システムにおいて, 対向行動やリスクを解析するための方法論的ベンチマークとして機能することが実証された。
我々は、このフレームワークが、現実世界のアプリケーションにデプロイされるディープオブジェクト検出器のセキュリティリスクと敵の堅牢性を評価するツールとしても役立つと推測する。
論文 参考訳(メタデータ) (2020-07-11T18:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。