論文の概要: Poison-splat: Computation Cost Attack on 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2410.08190v1
- Date: Thu, 10 Oct 2024 17:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 04:55:58.898066
- Title: Poison-splat: Computation Cost Attack on 3D Gaussian Splatting
- Title(参考訳): ポゾン・スプラット:3Dガウシアン・スプラッティングの計算コスト攻撃
- Authors: Jiahao Lu, Yifan Zhang, Qiuhong Shen, Xinchao Wang, Shuicheng Yan,
- Abstract要約: 3DGSで見過ごされてきた重大なセキュリティ脆弱性を明らかにします。
相手は入力画像に毒を加えることで、3DGSトレーニングに必要な計算メモリと時間を大幅に増加させることができる。
このような計算コスト攻撃は、二段階最適化問題に対処することで達成される。
- 参考スコア(独自算出の注目度): 90.88713193520917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian splatting (3DGS), known for its groundbreaking performance and efficiency, has become a dominant 3D representation and brought progress to many 3D vision tasks. However, in this work, we reveal a significant security vulnerability that has been largely overlooked in 3DGS: the computation cost of training 3DGS could be maliciously tampered by poisoning the input data. By developing an attack named Poison-splat, we reveal a novel attack surface where the adversary can poison the input images to drastically increase the computation memory and time needed for 3DGS training, pushing the algorithm towards its worst computation complexity. In extreme cases, the attack can even consume all allocable memory, leading to a Denial-of-Service (DoS) that disrupts servers, resulting in practical damages to real-world 3DGS service vendors. Such a computation cost attack is achieved by addressing a bi-level optimization problem through three tailored strategies: attack objective approximation, proxy model rendering, and optional constrained optimization. These strategies not only ensure the effectiveness of our attack but also make it difficult to defend with simple defensive measures. We hope the revelation of this novel attack surface can spark attention to this crucial yet overlooked vulnerability of 3DGS systems.
- Abstract(参考訳): 3Dガウススプラッティング(3DGS)は、その性能と効率性で知られ、支配的な3D表現となり、多くの3D視覚タスクに進歩をもたらした。
しかし,本研究では,3DGSで見過ごされてきた重大なセキュリティ上の脆弱性を明らかにし,入力データを悪用することにより,3DGSのトレーニングコストを悪用する可能性がある。
本稿では,Poison-splat と呼ばれる攻撃面の開発により,敵が入力画像に毒を塗布して3DGS トレーニングに必要な計算メモリと時間を大幅に増加させ,アルゴリズムを最悪の計算複雑性へと押し上げる新たな攻撃面を明らかにする。
極端な場合、攻撃はすべてのアロケート可能なメモリを消費し、サーバを障害するDoS(Denial-of-Service)が発生し、現実世界の3DGSサービスベンダーに実質的なダメージを与える。
このような計算コスト攻撃は、アタック対象近似、プロキシモデルレンダリング、任意の制約付き最適化の3つの戦略によって、二段階最適化問題に対処することで達成される。
これらの戦略は、我々の攻撃の有効性を確保するだけでなく、簡単な防御策で防御することが困難になる。
この新たな攻撃面の暴露が、3DGSシステムの重大な脆弱性に注意を向けることを願っている。
関連論文リスト
- Stealthy and Robust Backdoor Attack against 3D Point Clouds through Additional Point Features [7.066252856912398]
3Dバックドア攻撃は、3Dポイントクラウド用に設計された3Dディープニューラルネットワーク(3D DNN)に重大な脅威をもたらしている。
本稿では、意図的な設計上の考慮を通じて頑丈さとステルス性を保証するSRBA(Stealthy and Robust Backdoor Attack)を紹介する。
論文 参考訳(メタデータ) (2024-12-10T13:48:11Z) - Splats in Splats: Embedding Invisible 3D Watermark within Gaussian Splatting [28.790625685438677]
WaterGSは、バニラ3DGSの属性を変更することなく、3DGS自体に3Dコンテンツを埋め込む最初の3DGS透かしフレームワークである。
テストの結果、WaterGSは既存の3Dステガノグラフィー技術を大きく上回り、シーンの忠実度は5.31%、レンダリング速度は3倍に向上した。
論文 参考訳(メタデータ) (2024-12-04T08:40:11Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Improving transferability of 3D adversarial attacks with scale and shear
transformations [34.07511992559102]
本稿では,強い伝達性を持つ3次元逆転例を生成するためのスケール・アンド・シーア・アタックを提案する。
具体的には、入力ポイントクラウドをランダムにスケールまたはせん断し、攻撃がホワイトボックスモデルに合わないようにします。
実験により、SS攻撃は既存のSOTA(State-of-the-art)3Dポイント・クラウド攻撃手法とシームレスに組み合わせられることが示された。
論文 参考訳(メタデータ) (2022-11-02T13:09:38Z) - Generating Unrestricted 3D Adversarial Point Clouds [9.685291478330054]
3Dポイントクラウドのディープラーニングは、いまだに敵の攻撃に弱い。
本稿では,現実的な3D点雲を生成するために,AdvGCGAN(Adversarial Graph-Convolutional Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-11-17T08:30:18Z) - PointBA: Towards Backdoor Attacks in 3D Point Cloud [31.210502946247498]
3dのバックドア攻撃を,3dデータとネットワークのユニークな特性を利用する統一フレームワークで提示する。
3D深層モデルの堅牢性向上のベースラインとして、3Dポイントクラウドにおけるバックドアアタックの提案が期待されます。
論文 参考訳(メタデータ) (2021-03-30T04:49:25Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。