論文の概要: BiTAA: A Bi-Task Adversarial Attack for Object Detection and Depth Estimation via 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2509.19793v1
- Date: Wed, 24 Sep 2025 06:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.705811
- Title: BiTAA: A Bi-Task Adversarial Attack for Object Detection and Depth Estimation via 3D Gaussian Splatting
- Title(参考訳): BiTAA:3次元ガウススプラッティングによる物体検出と深さ推定のためのバイタスク・アタック
- Authors: Yixun Zhang, Feng Zhou, Jianqin Yin,
- Abstract要約: 本稿では,3次元ガウス平板上に構築したビタスク対逆攻撃BiTAAについて述べる。
具体的には、フルイメージとパッチ設定の両方をサポートするデュアルモデルアタックフレームワークを導入する。
また,クロスタスク転送メトリクスと実世界評価を併用した統合評価プロトコルを提案する。
- 参考スコア(独自算出の注目度): 14.918777539580978
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Camera-based perception is critical to autonomous driving yet remains vulnerable to task-specific adversarial manipulations in object detection and monocular depth estimation. Most existing 2D/3D attacks are developed in task silos, lack mechanisms to induce controllable depth bias, and offer no standardized protocol to quantify cross-task transfer, leaving the interaction between detection and depth underexplored. We present BiTAA, a bi-task adversarial attack built on 3D Gaussian Splatting that yields a single perturbation capable of simultaneously degrading detection and biasing monocular depth. Specifically, we introduce a dual-model attack framework that supports both full-image and patch settings and is compatible with common detectors and depth estimators, with optional expectation-over-transformation (EOT) for physical reality. In addition, we design a composite loss that couples detection suppression with a signed, magnitude-controlled log-depth bias within regions of interest (ROIs) enabling controllable near or far misperception while maintaining stable optimization across tasks. We also propose a unified evaluation protocol with cross-task transfer metrics and real-world evaluations, showing consistent cross-task degradation and a clear asymmetry between Det to Depth and from Depth to Det transfer. The results highlight practical risks for multi-task camera-only perception and motivate cross-task-aware defenses in autonomous driving scenarios.
- Abstract(参考訳): カメラによる認識は自律運転には不可欠であるが、物体検出や単眼深度推定においてタスク固有の敵操作に弱いままである。
既存の2D/3D攻撃のほとんどはタスクサイロで開発されており、制御可能な深さバイアスを誘発するメカニズムが欠如しており、クロスタスク転送を定量化するための標準化されたプロトコルを提供しておらず、検出と深さの相互作用が過小評価されている。
本稿では,3次元ガウス平板上に構築したビタスク対向攻撃BiTAAについて述べる。
具体的には、フルイメージとパッチ設定の両方をサポートし、一般的な検出器や深度推定器と互換性のあるデュアルモデルアタックフレームワークを導入する。
さらに,関心領域(ROIs)内の符号付き,等級制御された対数深度バイアスによる検出抑制を結合した複合損失を設計し,タスク間の安定な最適化を維持しつつ,近距離あるいは遠距離の誤認識を可能にする。
また,一貫したクロスタスク劣化と,DetからDepth,DepthからDetへの移動の間に明確な非対称性を示すクロスタスク・トランスファー・メトリクスと実世界の評価を併用した統合評価プロトコルを提案する。
その結果、マルチタスクカメラのみの認識と、自律走行シナリオにおけるクロスタスク対応の防御の動機付けの実践的リスクが浮き彫りになった。
関連論文リスト
- Robustifying 3D Perception via Least-Squares Graphs for Multi-Agent Object Tracking [43.11267507022928]
本稿では,3次元LiDARシーンにおける対向雑音に対する新たな緩和フレームワークを提案する。
我々は最小二乗グラフツールを用いて各検出の遠心点の位置誤差を低減する。
実世界のV2V4Realデータセットに関する広範な評価研究は、提案手法がシングルエージェントとマルチエージェントの両方のトラッキングフレームワークよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2025-07-07T08:41:08Z) - Seamless Detection: Unifying Salient Object Detection and Camouflaged Object Detection [73.85890512959861]
本稿では,SOD(Salient Object Detection)とCOD(Camouflaged Object Detection)を統合化するためのタスク非依存フレームワークを提案する。
我々は、間隔層と大域的コンテキストを含む単純で効果的なコンテキストデコーダを設計し、67fpsの推論速度を実現する。
公開SODデータセットとCODデータセットの実験は、教師なし設定と教師なし設定の両方において、提案したフレームワークの優位性を実証している。
論文 参考訳(メタデータ) (2024-12-22T03:25:43Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - SCIPaD: Incorporating Spatial Clues into Unsupervised Pose-Depth Joint Learning [17.99904937160487]
本研究では,教師なし深層学習のための空間的手がかりを取り入れた新しいアプローチであるSCIPaDを紹介する。
SCIPaDは平均翻訳誤差22.2%、カメラポーズ推定タスクの平均角誤差34.8%をKITTI Odometryデータセットで達成している。
論文 参考訳(メタデータ) (2024-07-07T06:52:51Z) - Object Semantics Give Us the Depth We Need: Multi-task Approach to
Aerial Depth Completion [1.2239546747355885]
本稿では,2つのタスクをひとつのパスで共同実行するための新しい手法を提案する。
提案手法は,2つのタスクを共同学習機能に公開するエンコーダに着目したマルチタスク学習モデルに基づく。
実験の結果,提案したマルチタスクネットワークはシングルタスクネットワークよりも優れていた。
論文 参考訳(メタデータ) (2023-04-25T03:21:32Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Detecting Adversarial Perturbations in Multi-Task Perception [32.9951531295576]
本稿では,複雑な視覚タスクのマルチタスク認識に基づく,新たな対向摂動検出手法を提案する。
入力画像の抽出されたエッジと深度出力とセグメンテーション出力との不整合により、逆摂動を検出する。
5%の偽陽性率を仮定すると、画像の最大100%は逆摂動として正しく検出され、摂動の強さに依存する。
論文 参考訳(メタデータ) (2022-03-02T15:25:17Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。