論文の概要: Gaussian Splatting Under Attack: Investigating Adversarial Noise in 3D Objects
- arxiv url: http://arxiv.org/abs/2412.02803v1
- Date: Tue, 03 Dec 2024 20:11:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:09:16.723298
- Title: Gaussian Splatting Under Attack: Investigating Adversarial Noise in 3D Objects
- Title(参考訳): ガウスの3次元物体の騒音調査
- Authors: Abdurrahman Zeybey, Mehmet Ergezer, Tommy Nguyen,
- Abstract要約: 物体検出モデルに対する敵対的攻撃は2D画像に対して十分に研究されているが、3Dモデルへの影響は未解明のままである。
この研究は、CLIPビジョン言語モデルをターゲットにした対向ノイズを生成するために設計されたMasked Iterative Fast Gradient Sign Method (M-IFGSM)を導入している。
提案手法は,人間の観測者に対してほとんど知覚できない対向雑音を伴って,モデルの精度と信頼性を効果的に低減することを示した。
- 参考スコア(独自算出の注目度): 1.7205106391379021
- License:
- Abstract: 3D Gaussian Splatting has advanced radiance field reconstruction, enabling high-quality view synthesis and fast rendering in 3D modeling. While adversarial attacks on object detection models are well-studied for 2D images, their impact on 3D models remains underexplored. This work introduces the Masked Iterative Fast Gradient Sign Method (M-IFGSM), designed to generate adversarial noise targeting the CLIP vision-language model. M-IFGSM specifically alters the object of interest by focusing perturbations on masked regions, degrading the performance of CLIP's zero-shot object detection capability when applied to 3D models. Using eight objects from the Common Objects 3D (CO3D) dataset, we demonstrate that our method effectively reduces the accuracy and confidence of the model, with adversarial noise being nearly imperceptible to human observers. The top-1 accuracy in original model renders drops from 95.4\% to 12.5\% for train images and from 91.2\% to 35.4\% for test images, with confidence levels reflecting this shift from true classification to misclassification, underscoring the risks of adversarial attacks on 3D models in applications such as autonomous driving, robotics, and surveillance. The significance of this research lies in its potential to expose vulnerabilities in modern 3D vision models, including radiance fields, prompting the development of more robust defenses and security measures in critical real-world applications.
- Abstract(参考訳): 3Dガウススプラッティングは、高画質なビュー合成と高速な3Dモデリングを可能にする、高度な放射場再構成を有する。
物体検出モデルに対する敵対的攻撃は2D画像に対して十分に研究されているが、3Dモデルに対するその影響は未解明のままである。
この研究は、CLIPビジョン言語モデルをターゲットにした対向ノイズを生成するために設計されたMasked Iterative Fast Gradient Sign Method (M-IFGSM)を導入している。
M-IFGSMは、マスクされた領域に摂動を集中させ、CLIPのゼロショットオブジェクト検出能力の性能を3Dモデルに適用することで、特に関心の対象を変更する。
コモンオブジェクト3D(CO3D)データセットから得られた8つのオブジェクトを用いて,本手法は,人間の観測者に対してほとんど知覚できない対向雑音を伴って,モデルの精度と信頼性を効果的に低減することを示した。
オリジナルのモデルにおけるトップ1の精度は、列車画像の95.4\%から12.5\%、テスト画像の91.2\%から35.4\%まで低下し、信頼性レベルは、真の分類から誤分類へのシフトを反映し、自律運転、ロボティクス、監視などのアプリケーションにおける3Dモデルに対する敵攻撃のリスクを浮き彫りにした。
この研究の意義は、放射場を含む現代の3次元視覚モデルにおける脆弱性を明らかにする可能性にある。
関連論文リスト
- RIGI: Rectifying Image-to-3D Generation Inconsistency via Uncertainty-aware Learning [27.4552892119823]
マルチビュースナップショットの不整合は、しばしばオブジェクト境界に沿ってノイズやアーティファクトを導入し、3D再構成プロセスを損なう。
3次元ガウススプラッティング(3DGS)を3次元再構成に利用し,不確実性認識学習を再現プロセスに統合する。
適応的な画素単位の損失重み付けを適用してモデルを正規化し、不確実領域における再構成強度を低減させる。
論文 参考訳(メタデータ) (2024-11-28T02:19:28Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Calib3D: Calibrating Model Preferences for Reliable 3D Scene Understanding [55.32861154245772]
Calib3Dは3Dシーン理解モデルの信頼性をベンチマークし精査する先駆的な試みである。
10の異なる3Dデータセットにまたがる28の最先端モデルを総合的に評価する。
本稿では,3次元モデルのキャリブレーション向上を目的とした,深度対応のスケーリング手法であるDeptSを紹介する。
論文 参考訳(メタデータ) (2024-03-25T17:59:59Z) - FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with Pre-trained Vision-Language Models [59.13757801286343]
クラス増分学習(class-incremental learning)は、モデルが限られたデータで漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
本稿では,特徴空間の不整合のための冗長特徴除去器 (RFE) と,重要な雑音に対する空間ノイズ補償器 (SNC) の2つの新しいコンポーネントを備えたFILP-3Dフレームワークを紹介する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Shape-Aware Monocular 3D Object Detection [15.693199934120077]
単分子3次元物体検出モデルを提案する。
この検出は、対象物を取り巻く無関係な領域からの干渉をほとんど避ける。
単分子3次元物体検出モデルに対して,新しい評価基準,すなわち平均深度類似度(ADS)を提案する。
論文 参考訳(メタデータ) (2022-04-19T07:43:56Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - Geometry-aware data augmentation for monocular 3D object detection [18.67567745336633]
本稿では,自動運転システムにおける必須モジュールの一つであるモノキュラー3次元物体検出について述べる。
重要な課題は、深さ回復問題は単眼データに不備があることです。
我々は,既存の手法が,異なる幾何学的シフトが発生した場合の深さをロバストに推定できないことを明らかにするために,詳細な解析を行う。
上記の操作を,対応する4つの3D対応データ拡張手法に変換する。
論文 参考訳(メタデータ) (2021-04-12T23:12:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。