論文の概要: Efficient Model-Based Purification Against Adversarial Attacks for LiDAR Segmentation
- arxiv url: http://arxiv.org/abs/2508.19290v1
- Date: Mon, 25 Aug 2025 10:14:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.352792
- Title: Efficient Model-Based Purification Against Adversarial Attacks for LiDAR Segmentation
- Title(参考訳): LiDARセグメンテーションにおける敵攻撃に対する効率的なモデルベース浄化
- Authors: Alexandros Gkillas, Ioulia Kapsali, Nikos Piperigkos, Aris S. Lalos,
- Abstract要約: 現代のセグメンテーションネットワークは、安全を損なう可能性のある敵攻撃に非常に影響を受けやすい。
本稿では,2DレンジビューLiDARセグメンテーションにおける敵防御に適した効率的なモデルベース浄化フレームワークを提案する。
提案手法はオープンベンチマーク上での競争性能を向上し, 生成的, 敵対的トレーニングベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 42.784148119322474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR-based segmentation is essential for reliable perception in autonomous vehicles, yet modern segmentation networks are highly susceptible to adversarial attacks that can compromise safety. Most existing defenses are designed for networks operating directly on raw 3D point clouds and rely on large, computationally intensive generative models. However, many state-of-the-art LiDAR segmentation pipelines operate on more efficient 2D range view representations. Despite their widespread adoption, dedicated lightweight adversarial defenses for this domain remain largely unexplored. We introduce an efficient model-based purification framework tailored for adversarial defense in 2D range-view LiDAR segmentation. We propose a direct attack formulation in the range-view domain and develop an explainable purification network based on a mathematical justified optimization problem, achieving strong adversarial resilience with minimal computational overhead. Our method achieves competitive performance on open benchmarks, consistently outperforming generative and adversarial training baselines. More importantly, real-world deployment on a demo vehicle demonstrates the framework's ability to deliver accurate operation in practical autonomous driving scenarios.
- Abstract(参考訳): LiDARベースのセグメンテーションは、自動運転車の信頼性の高い認識には不可欠だが、現代のセグメンテーションネットワークは安全性を損なうような敵の攻撃に非常に敏感である。
既存のディフェンスのほとんどは、生の3Dポイントクラウドで直接動作するネットワーク用に設計されており、大規模で計算集約的な生成モデルに依存している。
しかし、最先端のLiDARセグメンテーションパイプラインの多くは、より効率的な2Dレンジビュー表現で動作する。
広く採用されているにも拘わらず、この領域の軽量防衛はいまだに未解明のままである。
本稿では,2DレンジビューLiDARセグメンテーションにおける敵防御に適した効率的なモデルベース浄化フレームワークを提案する。
本稿では,レンジビュー領域における直接攻撃の定式化を提案し,数学的に正当化された最適化問題に基づく説明可能な浄化ネットワークを構築し,計算オーバーヘッドを最小限に抑えながら強力な対向レジリエンスを実現する。
提案手法はオープンベンチマーク上での競争性能を向上し, 生成的, 敵対的トレーニングベースラインを一貫して上回っている。
さらに重要なのは、実世界のデモ車両への展開は、実践的な自律運転シナリオで正確な操作を実現するフレームワークの能力を示すことだ。
関連論文リスト
- A Few Large Shifts: Layer-Inconsistency Based Minimal Overhead Adversarial Example Detection [9.335304254034401]
我々は、ターゲットモデル自体の内部の階層的不整合を利用して、軽量なプラグイン検出フレームワークを導入する。
本手法は, 計算オーバーヘッドを無視し, 正確さを損なうことなく, 最先端検出性能を実現する。
論文 参考訳(メタデータ) (2025-05-19T00:48:53Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。