論文の概要: Imperceptible and Robust Backdoor Attack in 3D Point Cloud
- arxiv url: http://arxiv.org/abs/2208.08052v1
- Date: Wed, 17 Aug 2022 03:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:14:16.976117
- Title: Imperceptible and Robust Backdoor Attack in 3D Point Cloud
- Title(参考訳): 3dポイントクラウドにおけるインセプタブルでロバストなバックドア攻撃
- Authors: Kuofeng Gao, Jiawang Bai, Baoyuan Wu, Mengxi Ya, Shu-Tao Xia
- Abstract要約: 本稿では、この課題に対処するために、新しい非受容的で堅牢なバックドアアタック(IRBA)を提案する。
我々は、重み付き局所変換(WLT)と呼ばれる非線形局所変換を用いて、ユニークな変換を持つ有毒試料を構築する。
3つのベンチマークデータセットと4つのモデルによる実験により、IRBAは前処理技術でもほとんどの場合80%以上のASRを達成することが示された。
- 参考スコア(独自算出の注目度): 62.992167285646275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the thriving of deep learning in processing point cloud data, recent
works show that backdoor attacks pose a severe security threat to 3D vision
applications. The attacker injects the backdoor into the 3D model by poisoning
a few training samples with trigger, such that the backdoored model performs
well on clean samples but behaves maliciously when the trigger pattern appears.
Existing attacks often insert some additional points into the point cloud as
the trigger, or utilize a linear transformation (e.g., rotation) to construct
the poisoned point cloud. However, the effects of these poisoned samples are
likely to be weakened or even eliminated by some commonly used pre-processing
techniques for 3D point cloud, e.g., outlier removal or rotation augmentation.
In this paper, we propose a novel imperceptible and robust backdoor attack
(IRBA) to tackle this challenge. We utilize a nonlinear and local
transformation, called weighted local transformation (WLT), to construct
poisoned samples with unique transformations. As there are several
hyper-parameters and randomness in WLT, it is difficult to produce two similar
transformations. Consequently, poisoned samples with unique transformations are
likely to be resistant to aforementioned pre-processing techniques. Besides, as
the controllability and smoothness of the distortion caused by a fixed WLT, the
generated poisoned samples are also imperceptible to human inspection.
Extensive experiments on three benchmark datasets and four models show that
IRBA achieves 80%+ ASR in most cases even with pre-processing techniques, which
is significantly higher than previous state-of-the-art attacks.
- Abstract(参考訳): ポイントクラウドデータの処理におけるディープラーニングの進歩により、最近の研究は、バックドア攻撃が3Dビジョンアプリケーションに深刻なセキュリティ脅威をもたらすことを示している。
攻撃者は、いくつかのトレーニングサンプルにトリガーを注入することで、バックドアを3dモデルに注入する。
既存の攻撃では、トリガーとして点雲にいくつかの追加点を挿入したり、あるいは線形変換(例えば回転)を用いて毒点雲を構築することがある。
しかし、これらの有毒試料の効果は3次元点雲の前処理技術(例えば、外周除去や回転増強など)によって弱まるか、あるいは除去される可能性がある。
本稿では,この課題に取り組むために,irba(imperceptible and robust backdoor attack)を提案する。
重み付き局所変換 (wlt) と呼ばれる非線形および局所変換を用いて, 有毒な試料を一意な変換で構成する。
WLTにはいくつかのハイパーパラメータとランダム性があるため、2つの類似した変換を生成することは困難である。
その結果、ユニークな変換を持つ有毒な試料は、前述の前処理技術に耐性があると考えられる。
また, 固定されたWLTによる歪みの抑制性や滑らかさから, 生成した有毒試料も人体検査には受容できない。
3つのベンチマークデータセットと4つのモデルに対する大規模な実験は、IRBAが前処理技術でも80%以上のASRを達成することを示した。
関連論文リスト
- MirrorAttack: Backdoor Attack on 3D Point Cloud with a Distorting Mirror [5.627919459380763]
MirrorAttackは、新しい効果的な3Dバックドア攻撃法である。
自動エンコーダでクリーンポイントの雲を再構築するだけでトリガーを埋め込む。
我々は,防衛技術の介入により,様々な種類の犠牲者モデルに対して最先端のASRを実現する。
論文 参考訳(メタデータ) (2024-03-09T09:15:37Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Is It Possible to Backdoor Face Forgery Detection with Natural Triggers? [20.54640502001717]
顔偽造検出モデルに対する新たな分析・合成バックドアアタックを提案する。
本手法は高い攻撃成功率(99%以上)を達成し,低毒性率(3%未満)のモデル精度低下(0.2%以下)を生じさせる。
論文 参考訳(メタデータ) (2023-12-31T07:16:10Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - 3D Point Cloud Completion with Geometric-Aware Adversarial Augmentation [11.198650616143219]
本稿では,3Dポイントクラウド完了タスクにおけるニューラルネットワークの性能向上を図ることを目的とした。
本稿では, クリーンサンプルと逆サンプルの両方の性能向上に寄与する, 逆サンプルを生成する新しい手法を提案する。
実験結果から,本手法により作製した逆方向サンプルを用いたトレーニングは,ShapeNetデータセット上でのPCNの性能を効果的に向上することが示された。
論文 参考訳(メタデータ) (2021-09-21T13:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。