論文の概要: One-to-N Backdoor Attack in 3D Point Cloud via Spherical Trigger
- arxiv url: http://arxiv.org/abs/2511.11210v1
- Date: Fri, 14 Nov 2025 12:10:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.573304
- Title: One-to-N Backdoor Attack in 3D Point Cloud via Spherical Trigger
- Title(参考訳): 球状トリガーによる3次元点雲の1対Nバックドア攻撃
- Authors: Dongmei Shan, Wei Lian, Chongxia Wang,
- Abstract要約: 我々は,新しい球面トリガに基づく3次元視覚のための最初の1対Nのバックドア・フレームワークを提示する。
我々は3Dで1対Nのバックドア攻撃の理論的基盤を確立し、有害なモデルが異なるターゲットラベルに異なるトリガー構成をマッピングできることを実証した。
- 参考スコア(独自算出の注目度): 0.6627152091494143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks represent a critical threat to deep learning systems, particularly in safety-sensitive 3D domains such as autonomous driving and robotics. However, existing backdoor attacks for 3D point clouds have been limited to a rigid one-to-one paradigm. To address this, we present the first one-to-N backdoor framework for 3D vision, based on a novel, configurable spherical trigger. Our key insight is to leverage the spatial properties of spheres as a parameter space, allowing a single trigger design to encode multiple target classes. We establish a theoretical foundation for one-to-N backdoor attacks in 3D, demonstrating that poisoned models can map distinct trigger configurations to different target labels. Experimental results systematically validate this conclusion across multiple datasets and model architectures, achieving high attack success rates (up to 100\%) while maintaining accuracy on clean data. This work establishes a crucial benchmark for multi-target threats in 3D vision and provides the foundational understanding needed to secure future 3D-driven intelligent systems.
- Abstract(参考訳): バックドア攻撃は、特に自律運転やロボット工学のような安全性に敏感な3Dドメインにおいて、ディープラーニングシステムにとって重要な脅威である。
しかし、既存の3Dポイントクラウドに対するバックドア攻撃は、厳格な1対1のパラダイムに制限されている。
そこで本研究では,新たに構成可能な球面トリガをベースとした,最初の3次元視覚のためのワンツーNバックドアフレームワークを提案する。
我々の重要な洞察は、球面の空間特性をパラメータ空間として活用し、単一のトリガー設計で複数のターゲットクラスをエンコードできるようにすることである。
我々は3Dで1対Nのバックドア攻撃の理論的基盤を確立し、有害なモデルが異なるターゲットラベルに異なるトリガー構成をマッピングできることを実証した。
実験結果は、複数のデータセットとモデルアーキテクチャにまたがってこの結論を体系的に検証し、クリーンデータに対する精度を維持しながら、高い攻撃成功率(最大100倍)を達成する。
この研究は、3Dビジョンにおけるマルチターゲット脅威に対する重要なベンチマークを確立し、将来の3D駆動知能システムを保護するために必要な基礎的な理解を提供する。
関連論文リスト
- E3D-Bench: A Benchmark for End-to-End 3D Geometric Foundation Models [78.1674905950243]
3次元幾何学基礎モデル(GFM)の総合ベンチマークを初めて提示する。
GFMは、単一のフィードフォワードパスで密度の高い3D表現を直接予測し、スローまたは未使用のカメラパラメータを不要にする。
我々は16の最先端GFMを評価し、タスクやドメイン間の長所と短所を明らかにした。
すべてのコード、評価スクリプト、処理されたデータは公開され、3D空間インテリジェンスの研究が加速される。
論文 参考訳(メタデータ) (2025-06-02T17:53:09Z) - Stealthy Patch-Wise Backdoor Attack in 3D Point Cloud via Curvature Awareness [52.780853311462636]
バックドア攻撃はディープニューラルネットワーク(DNN)に深刻な脅威をもたらす
既存の3Dポイントのクラウドバックドア攻撃は、サンプルワイドなグローバルな修正に依存している。
我々は,3Dポイントクラウド用のパッチワイドバックドアアタックフレームワークであるStealthy Patch-Wise Backdoor Attack (SPBA)を提案する。
論文 参考訳(メタデータ) (2025-03-12T12:30:59Z) - Stealthy and Robust Backdoor Attack against 3D Point Clouds through Additional Point Features [7.066252856912398]
3Dバックドア攻撃は、3Dポイントクラウド用に設計された3Dディープニューラルネットワーク(3D DNN)に重大な脅威をもたらしている。
本稿では、意図的な設計上の考慮を通じて頑丈さとステルス性を保証するSRBA(Stealthy and Robust Backdoor Attack)を紹介する。
論文 参考訳(メタデータ) (2024-12-10T13:48:11Z) - Hard-Label Black-Box Attacks on 3D Point Clouds [66.52447238776482]
そこで本研究では,新しいスペクトル認識決定境界アルゴリズムに基づく新しい3D攻撃手法を提案する。
実験により,攻撃性能と対向品質の点で,既存の白黒ボックス攻撃者よりも競合性が高いことが示された。
論文 参考訳(メタデータ) (2024-11-30T09:05:02Z) - Toward Availability Attacks in 3D Point Clouds [28.496421433836908]
距離正規化による2次元アベイラビリティーアタックを3次元点群に直接適用することは, 縮退の影響を受けやすいことを示す。
特徴空間に新たなショートカットを生成するFC-EM(Feature Collision Error-Minimization)法を提案する。
典型的なポイントクラウドデータセット,3次元頭蓋内動脈瘤医療データセット,および3次元顔データセットを用いて,我々のアプローチの優位性と実用性を検証する。
論文 参考訳(メタデータ) (2024-06-26T08:13:30Z) - 3DHacker: Spectrum-based Decision Boundary Generation for Hard-label 3D
Point Cloud Attack [64.83391236611409]
そこで本研究では,クラスラベルの知識にのみ依存して,敵対的なサンプルを生成する新しい3D攻撃手法を提案する。
3DHackerは、難しいハードラベル設定でも、既存の3D攻撃の攻撃性能と敵のクオリティを競争力で上回っている。
論文 参考訳(メタデータ) (2023-08-15T03:29:31Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - PointBA: Towards Backdoor Attacks in 3D Point Cloud [38.840590323016606]
バックドア攻撃を3Dデータとネットワークのユニークな特性を利用する統一的なフレームワークで3Dポイントクラウドに提示する。
提案するバックドアアタックは,3次元深部モデルの堅牢性向上のためのベースラインとして期待できる。
論文 参考訳(メタデータ) (2021-03-30T04:49:25Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。