論文の概要: Imperceptible and Robust Backdoor Attack in 3D Point Cloud
- arxiv url: http://arxiv.org/abs/2208.08052v1
- Date: Wed, 17 Aug 2022 03:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:14:16.976117
- Title: Imperceptible and Robust Backdoor Attack in 3D Point Cloud
- Title(参考訳): 3dポイントクラウドにおけるインセプタブルでロバストなバックドア攻撃
- Authors: Kuofeng Gao, Jiawang Bai, Baoyuan Wu, Mengxi Ya, Shu-Tao Xia
- Abstract要約: 本稿では、この課題に対処するために、新しい非受容的で堅牢なバックドアアタック(IRBA)を提案する。
我々は、重み付き局所変換(WLT)と呼ばれる非線形局所変換を用いて、ユニークな変換を持つ有毒試料を構築する。
3つのベンチマークデータセットと4つのモデルによる実験により、IRBAは前処理技術でもほとんどの場合80%以上のASRを達成することが示された。
- 参考スコア(独自算出の注目度): 62.992167285646275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the thriving of deep learning in processing point cloud data, recent
works show that backdoor attacks pose a severe security threat to 3D vision
applications. The attacker injects the backdoor into the 3D model by poisoning
a few training samples with trigger, such that the backdoored model performs
well on clean samples but behaves maliciously when the trigger pattern appears.
Existing attacks often insert some additional points into the point cloud as
the trigger, or utilize a linear transformation (e.g., rotation) to construct
the poisoned point cloud. However, the effects of these poisoned samples are
likely to be weakened or even eliminated by some commonly used pre-processing
techniques for 3D point cloud, e.g., outlier removal or rotation augmentation.
In this paper, we propose a novel imperceptible and robust backdoor attack
(IRBA) to tackle this challenge. We utilize a nonlinear and local
transformation, called weighted local transformation (WLT), to construct
poisoned samples with unique transformations. As there are several
hyper-parameters and randomness in WLT, it is difficult to produce two similar
transformations. Consequently, poisoned samples with unique transformations are
likely to be resistant to aforementioned pre-processing techniques. Besides, as
the controllability and smoothness of the distortion caused by a fixed WLT, the
generated poisoned samples are also imperceptible to human inspection.
Extensive experiments on three benchmark datasets and four models show that
IRBA achieves 80%+ ASR in most cases even with pre-processing techniques, which
is significantly higher than previous state-of-the-art attacks.
- Abstract(参考訳): ポイントクラウドデータの処理におけるディープラーニングの進歩により、最近の研究は、バックドア攻撃が3Dビジョンアプリケーションに深刻なセキュリティ脅威をもたらすことを示している。
攻撃者は、いくつかのトレーニングサンプルにトリガーを注入することで、バックドアを3dモデルに注入する。
既存の攻撃では、トリガーとして点雲にいくつかの追加点を挿入したり、あるいは線形変換(例えば回転)を用いて毒点雲を構築することがある。
しかし、これらの有毒試料の効果は3次元点雲の前処理技術(例えば、外周除去や回転増強など)によって弱まるか、あるいは除去される可能性がある。
本稿では,この課題に取り組むために,irba(imperceptible and robust backdoor attack)を提案する。
重み付き局所変換 (wlt) と呼ばれる非線形および局所変換を用いて, 有毒な試料を一意な変換で構成する。
WLTにはいくつかのハイパーパラメータとランダム性があるため、2つの類似した変換を生成することは困難である。
その結果、ユニークな変換を持つ有毒な試料は、前述の前処理技術に耐性があると考えられる。
また, 固定されたWLTによる歪みの抑制性や滑らかさから, 生成した有毒試料も人体検査には受容できない。
3つのベンチマークデータセットと4つのモデルに対する大規模な実験は、IRBAが前処理技術でも80%以上のASRを達成することを示した。
関連論文リスト
- Backdoor Mitigation by Distance-Driven Detoxification [38.27102305144483]
バックドア攻撃は、攻撃者が有毒なトレーニングデータを使用して予測を操作できるようにすることで、機械学習モデルの完全性を損なう。
本稿では,事前学習モデルにおけるバックドアの解毒を目的とした,訓練後のバックドア防御作業について考察する。
本稿では,バックドアディフェンスを制約付き最適化問題として再定義する革新的なアプローチとして,距離駆動型デトックス化(D3)を提案する。
論文 参考訳(メタデータ) (2024-11-14T16:54:06Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - iBA: Backdoor Attack on 3D Point Cloud via Reconstructing Itself [5.007492246056274]
MirrorAttackは、新しい効果的な3Dバックドア攻撃法である。
自動エンコーダでクリーンポイントの雲を再構築するだけでトリガーを埋め込む。
我々は,防衛技術の介入により,様々な種類の犠牲者モデルに対して最先端のASRを実現する。
論文 参考訳(メタデータ) (2024-03-09T09:15:37Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。