論文の概要: Nudge Attacks on Point-Cloud DNNs
- arxiv url: http://arxiv.org/abs/2011.11637v1
- Date: Sun, 22 Nov 2020 18:04:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 08:51:09.800481
- Title: Nudge Attacks on Point-Cloud DNNs
- Title(参考訳): ポイントクラウドDNNにおけるNudgeアタック
- Authors: Yiren Zhao, Ilia Shumailov, Robert Mullins and Ross Anderson
- Abstract要約: 既存の対向攻撃は高い成功率を達成するが、多数の点を変更する。
入力ポイントクラウドのいくつかのポイントのみを乱す攻撃のファミリーを示し、それらをヌッジアタックと名付ける。
一つのポイントで12~80%のケースで予測を確実に抑制できるのに対して、10ポイントでは37~95%に増やすことができます。
- 参考スコア(独自算出の注目度): 9.29621938988162
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The wide adaption of 3D point-cloud data in safety-critical applications such
as autonomous driving makes adversarial samples a real threat. Existing
adversarial attacks on point clouds achieve high success rates but modify a
large number of points, which is usually difficult to do in real-life
scenarios. In this paper, we explore a family of attacks that only perturb a
few points of an input point cloud, and name them nudge attacks. We demonstrate
that nudge attacks can successfully flip the results of modern point-cloud
DNNs. We present two variants, gradient-based and decision-based, showing their
effectiveness in white-box and grey-box scenarios. Our extensive experiments
show nudge attacks are effective at generating both targeted and untargeted
adversarial point clouds, by changing a few points or even a single point from
the entire point-cloud input. We find that with a single point we can reliably
thwart predictions in 12--80% of cases, whereas 10 points allow us to further
increase this to 37--95%. Finally, we discuss the possible defenses against
such attacks, and explore their limitations.
- Abstract(参考訳): 自動運転のような安全クリティカルなアプリケーションにおける3dポイントクラウドデータの広範な適応は、敵対的なサンプルを真の脅威にする。
ポイントクラウドに対する既存の敵対的な攻撃は高い成功率を達成したが、多くのポイントを修正している。
本稿では,入力点の雲の数点のみを摂動させる一連の攻撃を探索し,それらをヌッジ攻撃と呼ぶ。
我々は,最新のポイントクラウドDNNの結果を無効にすることができることを示す。
ホワイトボックスとグレーボックスのシナリオでの有効性を示す2つの変種(勾配ベースと決定ベース)を提示する。
我々の広範囲な実験は、数点または1点の点を点-クラウド入力全体から変更することにより、ターゲットと未ターゲットの対向点雲の両方を生成するのに効果的であることを示した。
一つのポイントで12~80%のケースで予測を確実に抑制できるのに対して、10ポイントでは37~95%に増やすことができます。
最後に、このような攻撃に対する防御の可能性について議論し、その限界を探る。
関連論文リスト
- Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Benchmarking and Analyzing Robust Point Cloud Recognition: Bag of Tricks
for Defending Adversarial Examples [25.029854308139853]
3Dポイントクラウド上の敵の例は、2Dイメージ上のものよりも防御が難しい。
本稿では、まず、総合的で厳密なクラウド対逆ロバスト性ベンチマークを確立する。
次に、これらのトリックの効果的な組み合わせを特定するために、広範囲かつ体系的な実験を行う。
我々は、様々な攻撃に対して平均83.45%の精度を達成する、より堅牢な防御フレームワークを構築した。
論文 参考訳(メタデータ) (2023-07-31T01:34:24Z) - PointCA: Evaluating the Robustness of 3D Point Cloud Completion Models
Against Adversarial Examples [63.84378007819262]
本稿では,3次元クラウド完了モデルに対する最初の逆攻撃であるPointCAを提案する。
ポイントCAは、元のものと高い類似性を維持する逆点雲を生成することができる。
その結果,PointCAは77.9%から16.7%に低下し,その構造は0.01以下であることがわかった。
論文 参考訳(メタデータ) (2022-11-22T14:15:41Z) - Shape-invariant 3D Adversarial Point Clouds [111.72163188681807]
逆境と不可視性は、逆境の摂動の2つの基本的だが矛盾する性格である。
3Dポイントのクラウド認識に対する以前の敵対的攻撃は、しばしば目立ったポイントアウトリーチによって批判された。
本稿では,点摂動の効率性と非受容性を両立させる新しい点-クラウド感度マップを提案する。
論文 参考訳(メタデータ) (2022-03-08T12:21:35Z) - Unsupervised Point Cloud Representation Learning with Deep Neural
Networks: A Survey [104.71816962689296]
大規模クラウドラベリングの制約により,教師なしのポイントクラウド表現学習が注目されている。
本稿では、ディープニューラルネットワークを用いた教師なしポイントクラウド表現学習の総合的なレビューを提供する。
論文 参考訳(メタデータ) (2022-02-28T07:46:05Z) - Boosting 3D Adversarial Attacks with Attacking On Frequency [6.577812580043734]
我々は、ポイントクラウドの低周波成分により多くの注意を払う新しいポイントクラウドアタック(AOFと呼ばれる)を提案する。
実験により、AOFは最先端(SOTA)攻撃と比較して、転送可能性を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2022-01-26T13:52:17Z) - Explainability-Aware One Point Attack for Point Cloud Neural Networks [0.0]
本研究は2つの新たな攻撃手法である opa と cta を提案する。
入力インスタンスから1ポイントだけをシフトすることで、人気の高いクラウドネットワークを100%の成功率で騙すことができることを示す。
また,異なる点帰属分布が点クラウドネットワークの対角的ロバスト性に与える影響についても考察した。
論文 参考訳(メタデータ) (2021-10-08T14:29:02Z) - Local Aggressive Adversarial Attacks on 3D Point Cloud [12.121901103987712]
ディープニューラルネットワークは、モデルを意図的に騙してミスを犯すような敵の例をしがちだ。
本稿では,上記の課題を解決するために,攻撃的攻撃的攻撃攻撃(L3A)を提案する。
PointNet, PointNet++ および DGCNN を用いた実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2021-05-19T12:22:56Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。