論文の概要: On Adversarial Robustness of 3D Point Cloud Classification under
Adaptive Attacks
- arxiv url: http://arxiv.org/abs/2011.11922v2
- Date: Tue, 6 Apr 2021 18:36:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 12:43:57.900363
- Title: On Adversarial Robustness of 3D Point Cloud Classification under
Adaptive Attacks
- Title(参考訳): 適応攻撃下における3次元点雲分類の逆ロバスト性について
- Authors: Jiachen Sun, Karl Koenig, Yulong Cao, Qi Alfred Chen, Z. Morley Mao
- Abstract要約: 3Dポイントクラウドは、自律運転など、さまざまな安全クリティカルなアプリケーションにおいて重要な役割を果たす。
我々は、最先端の防衛に関する最初のセキュリティ分析を行い、それらを適応的に評価する。
100%適応攻撃の成功率は、現在の対策がまだ脆弱であることを示している。
- 参考スコア(独自算出の注目度): 22.618325281125916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D point clouds play pivotal roles in various safety-critical applications,
such as autonomous driving, which desires the underlying deep neural networks
to be robust to adversarial perturbations. Though a few defenses against
adversarial point cloud classification have been proposed, it remains unknown
whether they are truly robust to adaptive attacks. To this end, we perform the
first security analysis of state-of-the-art defenses and design adaptive
evaluations on them. Our 100% adaptive attack success rates show that current
countermeasures are still vulnerable. Since adversarial training (AT) is
believed as the most robust defense, we present the first in-depth study
showing how AT behaves in point cloud classification and identify that the
required symmetric function (pooling operation) is paramount to the 3D model's
robustness under AT. Through our systematic analysis, we find that the
default-used fixed pooling (e.g., MAX pooling) generally weakens AT's
effectiveness in point cloud classification. Interestingly, we further discover
that sorting-based parametric pooling can significantly improve the models'
robustness. Based on above insights, we propose DeepSym, a deep symmetric
pooling operation, to architecturally advance the robustness to 47.0% under AT
without sacrificing nominal accuracy, outperforming the original design and a
strong baseline by 28.5% ($\sim 2.6 \times$) and 6.5%, respectively, in
PointNet.
- Abstract(参考訳): 3Dポイントクラウドは、自律運転など、さまざまな安全クリティカルなアプリケーションにおいて重要な役割を担っている。
対向点雲分類に対するいくつかの防御策が提案されているが、適応攻撃に対して真に堅牢であるかどうかは不明である。
この目的のために,最先端防御のセキュリティ解析と,それらに対する設計適応評価を行う。
100%適応攻撃の成功率は、現在の対策がまだ脆弱であることを示している。
対向訓練(adversarial training, at)は最も強固な防御であると考えられるため,atがポイントクラウド分類においてどのように振る舞うかを示す最初の詳細な研究を行い,必要な対称関数(プール操作)がatの下の3次元モデルの強固さに準じていることを示す。
系統的な分析により、デフォルトで使用される固定プール(MAXプーリングなど)は一般に点雲分類におけるATの有効性を弱めることがわかった。
興味深いことに、ソートに基づくパラメトリックプールはモデルの堅牢性を大幅に向上させることができる。
以上の知見に基づいて,deepsym をアーキテクチャ的に47.0%まで拡張し,名目的精度を犠牲にすることなく頑健性を向上し,28.5% (\sim 2.6 \times$) と 6.5% の強いベースラインをpointnet で上回らせることを提案する。
関連論文リスト
- Constrained Adaptive Attack: Effective Adversarial Attack Against Deep Neural Networks for Tabular Data [12.641656743760874]
そこで本研究では,適応機構による既存の勾配攻撃の障害を克服する勾配攻撃を提案する。
また、CAPGD攻撃と最高の検索ベース攻撃であるMOEVAを組み合わせた効率的な回避攻撃であるCAAを設計する。
私たちの実証研究は、CAAが既存の攻撃を20以上の設定で17で上回っていることを実証しています。
論文 参考訳(メタデータ) (2024-06-02T15:26:52Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Adaptive Local Adversarial Attacks on 3D Point Clouds for Augmented
Reality [10.118505317224683]
敵対的な例は、3Dニューラルネットワークモデルの堅牢性を改善する上で有益である。
ほとんどの3次元対向攻撃法は、全点の雲を乱して敵の例を生成する。
本稿では,3次元点群に適応的局所対向攻撃法(AL-Adv)を提案し,対向点群を生成する。
論文 参考訳(メタデータ) (2023-03-12T11:52:02Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - PointCA: Evaluating the Robustness of 3D Point Cloud Completion Models
Against Adversarial Examples [63.84378007819262]
本稿では,3次元クラウド完了モデルに対する最初の逆攻撃であるPointCAを提案する。
ポイントCAは、元のものと高い類似性を維持する逆点雲を生成することができる。
その結果,PointCAは77.9%から16.7%に低下し,その構造は0.01以下であることがわかった。
論文 参考訳(メタデータ) (2022-11-22T14:15:41Z) - LPF-Defense: 3D Adversarial Defense based on Frequency Analysis [11.496599300185915]
3Dポイントのクラウド分類は、いまだに敵の攻撃に対して非常に脆弱である。
入力データの中間成分と高周波成分には、より多くの逆の摂動がある。
トレーニング段階での高周波コンテンツを抑えることにより、逆例に対するモデルが改善される。
論文 参考訳(メタデータ) (2022-02-23T03:31:25Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。