論文の概要: Poison-splat: Computation Cost Attack on 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2410.08190v1
- Date: Thu, 10 Oct 2024 17:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 04:55:58.898066
- Title: Poison-splat: Computation Cost Attack on 3D Gaussian Splatting
- Title(参考訳): ポゾン・スプラット:3Dガウシアン・スプラッティングの計算コスト攻撃
- Authors: Jiahao Lu, Yifan Zhang, Qiuhong Shen, Xinchao Wang, Shuicheng Yan,
- Abstract要約: 3DGSで見過ごされてきた重大なセキュリティ脆弱性を明らかにします。
相手は入力画像に毒を加えることで、3DGSトレーニングに必要な計算メモリと時間を大幅に増加させることができる。
このような計算コスト攻撃は、二段階最適化問題に対処することで達成される。
- 参考スコア(独自算出の注目度): 90.88713193520917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian splatting (3DGS), known for its groundbreaking performance and efficiency, has become a dominant 3D representation and brought progress to many 3D vision tasks. However, in this work, we reveal a significant security vulnerability that has been largely overlooked in 3DGS: the computation cost of training 3DGS could be maliciously tampered by poisoning the input data. By developing an attack named Poison-splat, we reveal a novel attack surface where the adversary can poison the input images to drastically increase the computation memory and time needed for 3DGS training, pushing the algorithm towards its worst computation complexity. In extreme cases, the attack can even consume all allocable memory, leading to a Denial-of-Service (DoS) that disrupts servers, resulting in practical damages to real-world 3DGS service vendors. Such a computation cost attack is achieved by addressing a bi-level optimization problem through three tailored strategies: attack objective approximation, proxy model rendering, and optional constrained optimization. These strategies not only ensure the effectiveness of our attack but also make it difficult to defend with simple defensive measures. We hope the revelation of this novel attack surface can spark attention to this crucial yet overlooked vulnerability of 3DGS systems.
- Abstract(参考訳): 3Dガウススプラッティング(3DGS)は、その性能と効率性で知られ、支配的な3D表現となり、多くの3D視覚タスクに進歩をもたらした。
しかし,本研究では,3DGSで見過ごされてきた重大なセキュリティ上の脆弱性を明らかにし,入力データを悪用することにより,3DGSのトレーニングコストを悪用する可能性がある。
本稿では,Poison-splat と呼ばれる攻撃面の開発により,敵が入力画像に毒を塗布して3DGS トレーニングに必要な計算メモリと時間を大幅に増加させ,アルゴリズムを最悪の計算複雑性へと押し上げる新たな攻撃面を明らかにする。
極端な場合、攻撃はすべてのアロケート可能なメモリを消費し、サーバを障害するDoS(Denial-of-Service)が発生し、現実世界の3DGSサービスベンダーに実質的なダメージを与える。
このような計算コスト攻撃は、アタック対象近似、プロキシモデルレンダリング、任意の制約付き最適化の3つの戦略によって、二段階最適化問題に対処することで達成される。
これらの戦略は、我々の攻撃の有効性を確保するだけでなく、簡単な防御策で防御することが困難になる。
この新たな攻撃面の暴露が、3DGSシステムの重大な脆弱性に注意を向けることを願っている。
関連論文リスト
- Toward Availability Attacks in 3D Point Clouds [28.496421433836908]
距離正規化による2次元アベイラビリティーアタックを3次元点群に直接適用することは, 縮退の影響を受けやすいことを示す。
特徴空間に新たなショートカットを生成するFC-EM(Feature Collision Error-Minimization)法を提案する。
典型的なポイントクラウドデータセット,3次元頭蓋内動脈瘤医療データセット,および3次元顔データセットを用いて,我々のアプローチの優位性と実用性を検証する。
論文 参考訳(メタデータ) (2024-06-26T08:13:30Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Adaptive Local Adversarial Attacks on 3D Point Clouds for Augmented
Reality [10.118505317224683]
敵対的な例は、3Dニューラルネットワークモデルの堅牢性を改善する上で有益である。
ほとんどの3次元対向攻撃法は、全点の雲を乱して敵の例を生成する。
本稿では,3次元点群に適応的局所対向攻撃法(AL-Adv)を提案し,対向点群を生成する。
論文 参考訳(メタデータ) (2023-03-12T11:52:02Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Improving transferability of 3D adversarial attacks with scale and shear
transformations [34.07511992559102]
本稿では,強い伝達性を持つ3次元逆転例を生成するためのスケール・アンド・シーア・アタックを提案する。
具体的には、入力ポイントクラウドをランダムにスケールまたはせん断し、攻撃がホワイトボックスモデルに合わないようにします。
実験により、SS攻撃は既存のSOTA(State-of-the-art)3Dポイント・クラウド攻撃手法とシームレスに組み合わせられることが示された。
論文 参考訳(メタデータ) (2022-11-02T13:09:38Z) - Generating Unrestricted 3D Adversarial Point Clouds [9.685291478330054]
3Dポイントクラウドのディープラーニングは、いまだに敵の攻撃に弱い。
本稿では,現実的な3D点雲を生成するために,AdvGCGAN(Adversarial Graph-Convolutional Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-11-17T08:30:18Z) - PointBA: Towards Backdoor Attacks in 3D Point Cloud [31.210502946247498]
3dのバックドア攻撃を,3dデータとネットワークのユニークな特性を利用する統一フレームワークで提示する。
3D深層モデルの堅牢性向上のベースラインとして、3Dポイントクラウドにおけるバックドアアタックの提案が期待されます。
論文 参考訳(メタデータ) (2021-03-30T04:49:25Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。