論文の概要: PointBA: Towards Backdoor Attacks in 3D Point Cloud
- arxiv url: http://arxiv.org/abs/2103.16074v1
- Date: Tue, 30 Mar 2021 04:49:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 15:10:49.977515
- Title: PointBA: Towards Backdoor Attacks in 3D Point Cloud
- Title(参考訳): PointBA: 3D Point Cloudでのバックドア攻撃に向けて
- Authors: Xinke Li, Zhiru Chen, Yue Zhao, Zekun Tong, Yabang Zhao, Andrew Lim,
Joey Tianyi Zhou
- Abstract要約: 3dのバックドア攻撃を,3dデータとネットワークのユニークな特性を利用する統一フレームワークで提示する。
3D深層モデルの堅牢性向上のベースラインとして、3Dポイントクラウドにおけるバックドアアタックの提案が期待されます。
- 参考スコア(独自算出の注目度): 31.210502946247498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D deep learning has been increasingly more popular for a variety of tasks
including many safety-critical applications. However, recently several works
raise the security issues of 3D deep nets. Although most of these works
consider adversarial attacks, we identify that backdoor attack is indeed a more
serious threat to 3D deep learning systems but remains unexplored. We present
the backdoor attacks in 3D with a unified framework that exploits the unique
properties of 3D data and networks. In particular, we design two attack
approaches: the poison-label attack and the clean-label attack. The first one
is straightforward and effective in practice, while the second one is more
sophisticated assuming there are certain data inspections. The attack
algorithms are mainly motivated and developed by 1) the recent discovery of 3D
adversarial samples which demonstrate the vulnerability of 3D deep nets under
spatial transformations; 2) the proposed feature disentanglement technique that
manipulates the feature of the data through optimization methods and its
potential to embed a new task. Extensive experiments show the efficacy of the
poison-label attack with over 95% success rate across several 3D datasets and
models, and the ability of clean-label attack against data filtering with
around 50% success rate. Our proposed backdoor attack in 3D point cloud is
expected to perform as a baseline for improving the robustness of 3D deep
models.
- Abstract(参考訳): 3Dディープラーニングは、安全クリティカルなアプリケーションを含むさまざまなタスクでますます人気を集めています。
しかし、近年、いくつかの研究が3dディープネットのセキュリティ問題を提起している。
これらの作品の多くは逆境攻撃を考慮しているが、バックドア攻撃は3d深層学習システムにとってより深刻な脅威であることは間違いない。
3dのバックドア攻撃を,3dデータとネットワークのユニークな特性を利用する統一フレームワークで提示する。
特に, 毒ラベル攻撃とクリーンラベル攻撃の2つの攻撃アプローチをデザインした。
1つ目は単純かつ効果的で、2つめは特定のデータ検査があると仮定してより洗練されたものです。
攻撃アルゴリズムは,1)空間変換下での3次元深層ネットの脆弱性を実証する最近の3次元逆サンプルの発見,2)最適化手法と新しいタスクを組み込む可能性によってデータの特徴を操作する特徴異角化手法によって,主に動機づけられ,開発された。
広範な実験により、いくつかの3dデータセットとモデルで95%以上の成功率を持つ毒ラベル攻撃の有効性と、約50%の成功率でデータフィルタリングに対するクリーンラベル攻撃の能力が示された。
提案するバックドア攻撃は,3次元深部モデルの堅牢性向上のためのベースラインとして期待できる。
関連論文リスト
- Poison-splat: Computation Cost Attack on 3D Gaussian Splatting [90.88713193520917]
3DGSで見過ごされてきた重大なセキュリティ脆弱性を明らかにします。
相手は入力画像に毒を加えることで、3DGSトレーニングに必要な計算メモリと時間を大幅に増加させることができる。
このような計算コスト攻撃は、二段階最適化問題に対処することで達成される。
論文 参考訳(メタデータ) (2024-10-10T17:57:29Z) - Toward Availability Attacks in 3D Point Clouds [28.496421433836908]
距離正規化による2次元アベイラビリティーアタックを3次元点群に直接適用することは, 縮退の影響を受けやすいことを示す。
特徴空間に新たなショートカットを生成するFC-EM(Feature Collision Error-Minimization)法を提案する。
典型的なポイントクラウドデータセット,3次元頭蓋内動脈瘤医療データセット,および3次元顔データセットを用いて,我々のアプローチの優位性と実用性を検証する。
論文 参考訳(メタデータ) (2024-06-26T08:13:30Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - 3DHacker: Spectrum-based Decision Boundary Generation for Hard-label 3D
Point Cloud Attack [64.83391236611409]
そこで本研究では,クラスラベルの知識にのみ依存して,敵対的なサンプルを生成する新しい3D攻撃手法を提案する。
3DHackerは、難しいハードラベル設定でも、既存の3D攻撃の攻撃性能と敵のクオリティを競争力で上回っている。
論文 参考訳(メタデータ) (2023-08-15T03:29:31Z) - 3D-IDS: Doubly Disentangled Dynamic Intrusion Detection [24.293504468229678]
ネットワークベースの侵入検知システム(NIDS)は、悪意のある活動のためのネットワークトラフィックを監視する。
既存の手法は、様々な未知の攻撃を宣言したり、様々な既知の攻撃を検出する際に矛盾なく機能する。
本稿では,2段階の特徴分散と動的グラフ拡散方式により,上記の課題に対処する新しい手法である3D-IDSを提案する。
論文 参考訳(メタデータ) (2023-07-02T00:26:26Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - PointDP: Diffusion-driven Purification against Adversarial Attacks on 3D
Point Cloud Recognition [29.840946461846]
3D Pointクラウドは、自律運転、ロボティクス、医療画像など、多くの現実世界のアプリケーションにおいて重要なデータ表現である。
ディープラーニングは、敵の攻撃に対する脆弱性で有名だ。
我々は,拡散モデルを利用して3次元敵攻撃を防御する浄化戦略であるPointDPを提案する。
論文 参考訳(メタデータ) (2022-08-21T04:49:17Z) - Passive Defense Against 3D Adversarial Point Clouds Through the Lens of
3D Steganalysis [1.14219428942199]
3次元逆転点雲検出器は3次元ステガナリシスのレンズを通して設計されている。
我々の知る限り、この研究は初めて3次元ステガナリシスを3次元対人防御に適用した。
論文 参考訳(メタデータ) (2022-05-18T06:19:15Z) - Generating Unrestricted 3D Adversarial Point Clouds [9.685291478330054]
3Dポイントクラウドのディープラーニングは、いまだに敵の攻撃に弱い。
本稿では,現実的な3D点雲を生成するために,AdvGCGAN(Adversarial Graph-Convolutional Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-11-17T08:30:18Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。