論文の概要: LPF-Defense: 3D Adversarial Defense based on Frequency Analysis
- arxiv url: http://arxiv.org/abs/2202.11287v1
- Date: Wed, 23 Feb 2022 03:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 03:42:37.985979
- Title: LPF-Defense: 3D Adversarial Defense based on Frequency Analysis
- Title(参考訳): lpf防御 : 周波数解析に基づく3次元防御
- Authors: Hanieh Naderi, Arian Etemadi, Kimia Noorbakhsh and Shohreh Kasaei
- Abstract要約: 3Dポイントのクラウド分類は、いまだに敵の攻撃に対して非常に脆弱である。
入力データの中間成分と高周波成分には、より多くの逆の摂動がある。
トレーニング段階での高周波コンテンツを抑えることにより、逆例に対するモデルが改善される。
- 参考スコア(独自算出の注目度): 11.496599300185915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although 3D point cloud classification has recently been widely deployed in
different application scenarios, it is still very vulnerable to adversarial
attacks. This increases the importance of robust training of 3D models in the
face of adversarial attacks. Based on our analysis on the performance of
existing adversarial attacks, more adversarial perturbations are found in the
mid and high-frequency components of input data. Therefore, by suppressing the
high-frequency content in the training phase, the models robustness against
adversarial examples is improved. Experiments showed that the proposed defense
method decreases the success rate of six attacks on PointNet, PointNet++ ,, and
DGCNN models. In particular, improvements are achieved with an average increase
of classification accuracy by 3.8 % on drop100 attack and 4.26 % on drop200
attack compared to the state-of-the-art methods. The method also improves
models accuracy on the original dataset compared to other available methods.
- Abstract(参考訳): 3Dポイントクラウド分類は、最近さまざまなアプリケーションシナリオに広くデプロイされているが、敵攻撃に対して非常に脆弱である。
これにより、敵対的攻撃に直面した3Dモデルの堅牢なトレーニングの重要性が増す。
既存の対向攻撃の性能を解析した結果,入力データの中・高周波成分により多くの対向的摂動がみられた。
したがって、トレーニング段階での高周波コンテンツを抑制することにより、逆例に対するモデル堅牢性を向上する。
実験の結果,提案手法はPointNet, PointNet++, DGCNNモデルに対する6つの攻撃の成功率を低下させることがわかった。
特に、平均的な分類精度の向上により、drop100攻撃では3.8%、drop200攻撃では4.26%向上した。
また、他の利用可能な方法と比較して、元のデータセットのモデルの精度も向上する。
関連論文リスト
- Transferable 3D Adversarial Shape Completion using Diffusion Models [8.323647730916635]
3Dポイントクラウド機能学習は、3Dディープラーニングモデルのパフォーマンスを大幅に改善した。
既存の攻撃方法は、主にホワイトボックスのシナリオに焦点を当てており、最近提案された3Dディープラーニングモデルへの移行に苦労している。
本稿では,拡散モデルを用いて高品質な対向点雲を生成する。
提案した攻撃は、ブラックボックスモデルとディフェンスの両方に対して、最先端の敵攻撃法より優れている。
論文 参考訳(メタデータ) (2024-07-14T04:51:32Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Adaptive Modeling Against Adversarial Attacks [1.90365714903665]
逆行訓練は、逆行データを用いたディープラーニングモデルを訓練するプロセスであり、ディープラーニングモデルのための最も成功した逆行防御手法の1つである。
我々は,このモデルを推論段階に微調整して逆入力に適応させると,逆学習モデルの白色箱攻撃に対するロバスト性をさらに向上できることを示した。
論文 参考訳(メタデータ) (2021-12-23T09:52:30Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Lagrangian Objective Function Leads to Improved Unforeseen Attack
Generalization in Adversarial Training [0.0]
対人訓練(AT)は、訓練中に使用される攻撃に対して堅牢なモデルに到達するのに有効であることが示されている。
我々は、上記の問題を緩和する簡易なAT修正を提案する。
我々は,攻撃の一般化を意図した他の攻撃手法よりも,攻撃速度が速いことを示す。
論文 参考訳(メタデータ) (2021-03-29T07:23:46Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - On Adversarial Robustness of 3D Point Cloud Classification under
Adaptive Attacks [22.618325281125916]
3Dポイントクラウドは、自律運転など、さまざまな安全クリティカルなアプリケーションにおいて重要な役割を果たす。
我々は、最先端の防衛に関する最初のセキュリティ分析を行い、それらを適応的に評価する。
100%適応攻撃の成功率は、現在の対策がまだ脆弱であることを示している。
論文 参考訳(メタデータ) (2020-11-24T06:46:38Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。