論文の概要: Local Aggressive Adversarial Attacks on 3D Point Cloud
- arxiv url: http://arxiv.org/abs/2105.09090v1
- Date: Wed, 19 May 2021 12:22:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 14:02:05.950511
- Title: Local Aggressive Adversarial Attacks on 3D Point Cloud
- Title(参考訳): 3dポイントクラウド上のローカルな攻撃的攻撃
- Authors: Yiming Sun, Feng Chen, Zhiyu Chen, Mingjie Wang, Ruonan Li
- Abstract要約: ディープニューラルネットワークは、モデルを意図的に騙してミスを犯すような敵の例をしがちだ。
本稿では,上記の課題を解決するために,攻撃的攻撃的攻撃攻撃(L3A)を提案する。
PointNet, PointNet++ および DGCNN を用いた実験により,本手法の最先端性能を実証した。
- 参考スコア(独自算出の注目度): 12.121901103987712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are found to be prone to adversarial examples which
could deliberately fool the model to make mistakes. Recently, a few of works
expand this task from 2D image to 3D point cloud by using global point cloud
optimization. However, the perturbations of global point are not effective for
misleading the victim model. First, not all points are important in
optimization toward misleading. Abundant points account considerable distortion
budget but contribute trivially to attack. Second, the multi-label optimization
is suboptimal for adversarial attack, since it consumes extra energy in finding
multi-label victim model collapse and causes instance transformation to be
dissimilar to any particular instance. Third, the independent adversarial and
perceptibility losses, caring misclassification and dissimilarity separately,
treat the updating of each point equally without a focus. Therefore, once
perceptibility loss approaches its budget threshold, all points would be stock
in the surface of hypersphere and attack would be locked in local optimality.
Therefore, we propose a local aggressive adversarial attacks (L3A) to solve
above issues. Technically, we select a bunch of salient points, the high-score
subset of point cloud according to gradient, to perturb. Then a flow of
aggressive optimization strategies are developed to reinforce the unperceptive
generation of adversarial examples toward misleading victim models. Extensive
experiments on PointNet, PointNet++ and DGCNN demonstrate the state-of-the-art
performance of our method against existing adversarial attack methods.
- Abstract(参考訳): ディープニューラルネットワークは、モデルを意図的に騙してミスを犯すような敵の例に傾向がある。
近年,グローバルポイントクラウド最適化により,このタスクを2次元イメージから3次元ポイントクラウドに拡張する作業がいくつか行われている。
しかし,グローバルポイントの摂動は被害者モデルの誤解に有効ではない。
まず、すべての点がミスリードに対する最適化において重要であるわけではない。
豊富なポイントはかなりの歪曲予算を負うが、攻撃に自明に寄与する。
第二に、マルチラベルの最適化は、複数のラベルの犠牲者モデル崩壊を見つける際に余分なエネルギーを消費し、特定のインスタンスと異なるインスタンス変換を引き起こすため、逆攻撃に最適である。
第3に、独立した敵意と知覚力の損失、誤分類と不一致を別々に考慮し、焦点を合わせることなく各点の更新を平等に扱う。
したがって、知覚損失が予算しきい値に近づくと、すべてのポイントは超球面にストックされ、攻撃は局所的最適性にロックされる。
そこで本稿では,上記の課題を解決するために,攻撃的攻撃攻撃(L3A)を提案する。
技術的には、勾配に応じて点雲の高スコア部分集合である一連の正解点を摂動に選択する。
次に, 攻撃的最適化戦略のフローを構築し, 被害者モデルに対する非知覚的な敵例の生成を強化する。
PointNet, PointNet++, DGCNN での大規模な実験により, 既存の攻撃手法に対する手法の最先端性能が実証された。
関連論文リスト
- Transferable 3D Adversarial Shape Completion using Diffusion Models [8.323647730916635]
3Dポイントクラウド機能学習は、3Dディープラーニングモデルのパフォーマンスを大幅に改善した。
既存の攻撃方法は、主にホワイトボックスのシナリオに焦点を当てており、最近提案された3Dディープラーニングモデルへの移行に苦労している。
本稿では,拡散モデルを用いて高品質な対向点雲を生成する。
提案した攻撃は、ブラックボックスモデルとディフェンスの両方に対して、最先端の敵攻撃法より優れている。
論文 参考訳(メタデータ) (2024-07-14T04:51:32Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Adaptive Local Adversarial Attacks on 3D Point Clouds for Augmented
Reality [10.118505317224683]
敵対的な例は、3Dニューラルネットワークモデルの堅牢性を改善する上で有益である。
ほとんどの3次元対向攻撃法は、全点の雲を乱して敵の例を生成する。
本稿では,3次元点群に適応的局所対向攻撃法(AL-Adv)を提案し,対向点群を生成する。
論文 参考訳(メタデータ) (2023-03-12T11:52:02Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - PointCA: Evaluating the Robustness of 3D Point Cloud Completion Models
Against Adversarial Examples [63.84378007819262]
本稿では,3次元クラウド完了モデルに対する最初の逆攻撃であるPointCAを提案する。
ポイントCAは、元のものと高い類似性を維持する逆点雲を生成することができる。
その結果,PointCAは77.9%から16.7%に低下し,その構造は0.01以下であることがわかった。
論文 参考訳(メタデータ) (2022-11-22T14:15:41Z) - Shape-invariant 3D Adversarial Point Clouds [111.72163188681807]
逆境と不可視性は、逆境の摂動の2つの基本的だが矛盾する性格である。
3Dポイントのクラウド認識に対する以前の敵対的攻撃は、しばしば目立ったポイントアウトリーチによって批判された。
本稿では,点摂動の効率性と非受容性を両立させる新しい点-クラウド感度マップを提案する。
論文 参考訳(メタデータ) (2022-03-08T12:21:35Z) - Generating Unrestricted 3D Adversarial Point Clouds [9.685291478330054]
3Dポイントクラウドのディープラーニングは、いまだに敵の攻撃に弱い。
本稿では,現実的な3D点雲を生成するために,AdvGCGAN(Adversarial Graph-Convolutional Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-11-17T08:30:18Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z) - Minimal Adversarial Examples for Deep Learning on 3D Point Clouds [25.569519066857705]
本研究では、ポイントクラウドベースのニューラルネットワークに対する敵攻撃について検討する。
本稿では2つの異なる攻撃戦略を一般化できる対向点雲生成のための統一的な定式化を提案する。
提案手法は, 合成データと実世界のデータに対して, 89%以上の攻撃成功率と90%の攻撃成功率で, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-08-27T11:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。