論文の概要: Targeted View-Invariant Adversarial Perturbations for 3D Object Recognition
- arxiv url: http://arxiv.org/abs/2412.13376v1
- Date: Tue, 17 Dec 2024 23:23:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:49:37.287859
- Title: Targeted View-Invariant Adversarial Perturbations for 3D Object Recognition
- Title(参考訳): 3次元物体認識のためのビュー不変逆摂動のターゲット化
- Authors: Christian Green, Mehmet Ergezer, Abdurrahman Zeybey,
- Abstract要約: 敵対的攻撃は3Dオブジェクト認識において重大な課題を引き起こす。
本稿では,頑健な逆数例を作成するための新しい手法であるビュー不変逆数摂動(VIAP)を紹介する。
目標設定と未目標設定の両方において,VIAPの有効性を示す。
- 参考スコア(独自算出の注目度): 1.7205106391379021
- License:
- Abstract: Adversarial attacks pose significant challenges in 3D object recognition, especially in scenarios involving multi-view analysis where objects can be observed from varying angles. This paper introduces View-Invariant Adversarial Perturbations (VIAP), a novel method for crafting robust adversarial examples that remain effective across multiple viewpoints. Unlike traditional methods, VIAP enables targeted attacks capable of manipulating recognition systems to classify objects as specific, pre-determined labels, all while using a single universal perturbation. Leveraging a dataset of 1,210 images across 121 diverse rendered 3D objects, we demonstrate the effectiveness of VIAP in both targeted and untargeted settings. Our untargeted perturbations successfully generate a singular adversarial noise robust to 3D transformations, while targeted attacks achieve exceptional results, with top-1 accuracies exceeding 95% across various epsilon values. These findings highlight VIAPs potential for real-world applications, such as testing the robustness of 3D recognition systems. The proposed method sets a new benchmark for view-invariant adversarial robustness, advancing the field of adversarial machine learning for 3D object recognition.
- Abstract(参考訳): 敵対的攻撃は、特に様々な角度から物体を観察できる多視点分析を含むシナリオにおいて、3Dオブジェクト認識において重要な課題を提起する。
本稿では,複数の視点において有効である頑健な逆数例を作成するための新しい手法であるビュー不変逆数摂動(VIAP)を紹介する。
従来の手法とは異なり、VIAPは単一の普遍摂動を用いて、物体を特定の決定済みラベルとして分類する認識システムを操作できる標的攻撃を可能にする。
121個の多彩な3Dオブジェクトにわたる1,210の画像のデータセットを活用することで、ターゲット設定と未ターゲット設定の両方において、VIAPの有効性を実証する。
我々の標的外摂動は3次元変換に頑健な特異な逆方向ノイズを発生させる一方、標的攻撃は様々なエプシロン値に対して95%を超えるトップ1の精度で例外的な結果を得る。
これらの結果は,3次元認識システムの堅牢性テストなど,実世界のアプリケーションに対するVIAPの可能性を強調している。
提案手法は,3次元物体認識のための対向機械学習の分野を前進させ,ビュー不変の対向ロバスト性のための新しいベンチマークを設定する。
関連論文リスト
- Open Vocabulary Monocular 3D Object Detection [10.424711580213616]
RGB画像から3次元空間内の物体を検出しローカライズすることを目的とした新しい課題であるオープンボキャブラリモノクロ3Dオブジェクト検出の研究を開拓した。
オープンボキャブラリ2次元検出器を活用して2次元境界ボックスを3次元空間に持ち上げるクラス非依存的手法を提案する。
提案手法は,3次元境界ボックスを推定する作業から2次元の物体の認識と局所化を分離し,未知のカテゴリをまたいだ一般化を可能にする。
論文 参考訳(メタデータ) (2024-11-25T18:59:17Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Eidos: Efficient, Imperceptible Adversarial 3D Point Clouds [16.604139389480615]
Eidosは、3D pOintクラウドSに対して効果的な非受容性アディバーサリアルアタックを提供するフレームワークである。
本稿では,3次元pOintクラウドSに対して,効率的な非知覚的アディバーサリアルアタックを提供するフレームワークであるEidosを提示することで,敵攻撃の理解を深める。
論文 参考訳(メタデータ) (2024-05-23T06:09:08Z) - One Noise to Rule Them All: Multi-View Adversarial Attacks with Universal Perturbation [1.4680035572775534]
本稿では,3次元物体認識における頑健な多視点対角的例を生成するために,新しい普遍摂動法を提案する。
単一のビューに制限された従来の攻撃とは異なり、我々のアプローチは複数の2Dイメージで動作し、実用的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-04-02T20:29:59Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - Unsupervised Domain Adaptation for Monocular 3D Object Detection via
Self-Training [57.25828870799331]
我々は、Mono3D上での教師なしドメイン適応のための新しい自己学習フレームワークSTMono3Dを提案する。
対象ドメイン上で適応的な擬似ラベルを生成するための教師学生パラダイムを開発する。
STMono3Dは、評価されたすべてのデータセットで顕著なパフォーマンスを達成し、KITTI 3Dオブジェクト検出データセットの完全な教師付き結果を超えています。
論文 参考訳(メタデータ) (2022-04-25T12:23:07Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。