論文の概要: Benchmarking and Analyzing Robust Point Cloud Recognition: Bag of Tricks
for Defending Adversarial Examples
- arxiv url: http://arxiv.org/abs/2307.16361v2
- Date: Thu, 10 Aug 2023 02:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 15:30:20.347111
- Title: Benchmarking and Analyzing Robust Point Cloud Recognition: Bag of Tricks
for Defending Adversarial Examples
- Title(参考訳): ロバストなポイントクラウド認識のベンチマークと解析 - 敵の例を守るための小技
- Authors: Qiufan Ji, Lin Wang, Cong Shi, Shengshan Hu, Yingying Chen, Lichao Sun
- Abstract要約: 3Dポイントクラウド上の敵の例は、2Dイメージ上のものよりも防御が難しい。
本稿では、まず、総合的で厳密なクラウド対逆ロバスト性ベンチマークを確立する。
次に、これらのトリックの効果的な組み合わせを特定するために、広範囲かつ体系的な実験を行う。
我々は、様々な攻撃に対して平均83.45%の精度を達成する、より堅牢な防御フレームワークを構築した。
- 参考スコア(独自算出の注目度): 25.029854308139853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) for 3D point cloud recognition are vulnerable to
adversarial examples, threatening their practical deployment. Despite the many
research endeavors have been made to tackle this issue in recent years, the
diversity of adversarial examples on 3D point clouds makes them more
challenging to defend against than those on 2D images. For examples, attackers
can generate adversarial examples by adding, shifting, or removing points.
Consequently, existing defense strategies are hard to counter unseen point
cloud adversarial examples. In this paper, we first establish a comprehensive,
and rigorous point cloud adversarial robustness benchmark to evaluate
adversarial robustness, which can provide a detailed understanding of the
effects of the defense and attack methods. We then collect existing defense
tricks in point cloud adversarial defenses and then perform extensive and
systematic experiments to identify an effective combination of these tricks.
Furthermore, we propose a hybrid training augmentation methods that consider
various types of point cloud adversarial examples to adversarial training,
significantly improving the adversarial robustness. By combining these tricks,
we construct a more robust defense framework achieving an average accuracy of
83.45\% against various attacks, demonstrating its capability to enabling
robust learners. Our codebase are open-sourced on:
\url{https://github.com/qiufan319/benchmark_pc_attack.git}.
- Abstract(参考訳): 3Dポイントクラウド認識のためのディープニューラルネットワーク(DNN)は、敵の例に対して脆弱であり、実践的なデプロイメントを脅かす。
近年、この問題に対処するための多くの研究努力がなされているが、3Dポイントの雲における敵の例の多様性は、2D画像よりも防御が難しい。
例えば、攻撃者はポイントの追加、シフト、削除によって敵の例を生成することができる。
したがって、既存の防衛戦略は、目に見えない雲の敵の例に対抗するのは難しい。
本稿では,まず,対向ロバスト性を評価するために,総合的かつ厳密なクラウド対向ロバスト性ベンチマークを構築し,防衛・攻撃手法の効果を詳細に把握する。
次に、既存の防御策をポイントクラウドの敵防衛に集め、これらのトリックの効果的な組み合わせを特定するために、広範囲かつ体系的な実験を行う。
さらに,様々な種類の点雲対向例を対向訓練に適用し,対向ロバスト性を大幅に向上させるハイブリッドトレーニング拡張手法を提案する。
これらのトリックを組み合わせることで、様々な攻撃に対して平均83.45\%の精度を達成する、より堅牢な防御フレームワークを構築し、堅牢な学習者を実現する能力を示す。
当社のコードベースは、下記のとおり、オープンソースです。
関連論文リスト
- Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Among Us: Adversarially Robust Collaborative Perception by Consensus [50.73128191202585]
複数のロボットは、シーン(例えば物体)を個人よりも協調的に知覚することができる。
本稿では,未知の攻撃者に対して一般化可能な新しいサンプリングベース防衛戦略であるROBOSACを提案する。
自律運転シナリオにおける協調3次元物体検出の課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-16T17:15:25Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Passive Defense Against 3D Adversarial Point Clouds Through the Lens of
3D Steganalysis [1.14219428942199]
3次元逆転点雲検出器は3次元ステガナリシスのレンズを通して設計されている。
我々の知る限り、この研究は初めて3次元ステガナリシスを3次元対人防御に適用した。
論文 参考訳(メタデータ) (2022-05-18T06:19:15Z) - Boosting 3D Adversarial Attacks with Attacking On Frequency [6.577812580043734]
我々は、ポイントクラウドの低周波成分により多くの注意を払う新しいポイントクラウドアタック(AOFと呼ばれる)を提案する。
実験により、AOFは最先端(SOTA)攻撃と比較して、転送可能性を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2022-01-26T13:52:17Z) - Generating Unrestricted 3D Adversarial Point Clouds [9.685291478330054]
3Dポイントクラウドのディープラーニングは、いまだに敵の攻撃に弱い。
本稿では,現実的な3D点雲を生成するために,AdvGCGAN(Adversarial Graph-Convolutional Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-11-17T08:30:18Z) - Learning Defense Transformers for Counterattacking Adversarial Examples [43.59730044883175]
ディープニューラルネットワーク(DNN)は、小さな摂動を伴う逆例に対して脆弱である。
既存の防御メソッドは、特定のタイプの敵の例に焦点を当てており、現実世界のアプリケーションでは防御に失敗する可能性がある。
敵対例を元のクリーンな分布に戻すことで、敵対例に対して防御できるかどうかという新たな視点から、敵対例を研究します。
論文 参考訳(メタデータ) (2021-03-13T02:03:53Z) - Minimal Adversarial Examples for Deep Learning on 3D Point Clouds [25.569519066857705]
本研究では、ポイントクラウドベースのニューラルネットワークに対する敵攻撃について検討する。
本稿では2つの異なる攻撃戦略を一般化できる対向点雲生成のための統一的な定式化を提案する。
提案手法は, 合成データと実世界のデータに対して, 89%以上の攻撃成功率と90%の攻撃成功率で, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-08-27T11:50:45Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。