論文の概要: AdvIRL: Reinforcement Learning-Based Adversarial Attacks on 3D NeRF Models
- arxiv url: http://arxiv.org/abs/2412.16213v1
- Date: Wed, 18 Dec 2024 01:01:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:01:48.663696
- Title: AdvIRL: Reinforcement Learning-Based Adversarial Attacks on 3D NeRF Models
- Title(参考訳): AdvIRL:3次元NeRFモデルにおける強化学習に基づく敵攻撃
- Authors: Tommy Nguyen, Mehmet Ergezer, Christian Green,
- Abstract要約: textitAdvIRLは、多様な3D変換の下で頑健な対向ノイズを生成する。
私たちのアプローチは、小さなオブジェクト(バナナなど)から大きな環境(灯台など)まで、幅広い場面で検証されています。
- 参考スコア(独自算出の注目度): 1.7205106391379021
- License:
- Abstract: The increasing deployment of AI models in critical applications has exposed them to significant risks from adversarial attacks. While adversarial vulnerabilities in 2D vision models have been extensively studied, the threat landscape for 3D generative models, such as Neural Radiance Fields (NeRF), remains underexplored. This work introduces \textit{AdvIRL}, a novel framework for crafting adversarial NeRF models using Instant Neural Graphics Primitives (Instant-NGP) and Reinforcement Learning. Unlike prior methods, \textit{AdvIRL} generates adversarial noise that remains robust under diverse 3D transformations, including rotations and scaling, enabling effective black-box attacks in real-world scenarios. Our approach is validated across a wide range of scenes, from small objects (e.g., bananas) to large environments (e.g., lighthouses). Notably, targeted attacks achieved high-confidence misclassifications, such as labeling a banana as a slug and a truck as a cannon, demonstrating the practical risks posed by adversarial NeRFs. Beyond attacking, \textit{AdvIRL}-generated adversarial models can serve as adversarial training data to enhance the robustness of vision systems. The implementation of \textit{AdvIRL} is publicly available at \url{https://github.com/Tommy-Nguyen-cpu/AdvIRL/tree/MultiView-Clean}, ensuring reproducibility and facilitating future research.
- Abstract(参考訳): クリティカルなアプリケーションへのAIモデルのデプロイの増加は、敵の攻撃による重大なリスクにさらされている。
2次元視覚モデルにおける敵対的脆弱性は広く研究されているが、ニューラルレージアンスフィールド(Neural Radiance Fields, NeRF)のような3次元生成モデルの脅威ランドスケープはいまだ研究されていない。
Instant Neural Graphics Primitives(Instant-NGP)とReinforcement Learning(Reinforcement Learning)を使用して、敵のNeRFモデルを作成するための新しいフレームワークである。
従来の方法とは異なり、 \textit{AdvIRL} は回転やスケーリングを含む多様な3D変換の下で頑健な逆ノイズを生成し、現実のシナリオにおいて効果的なブラックボックス攻撃を可能にする。
私たちのアプローチは、小さなオブジェクト(例:バナナ)から大きな環境(例:灯台)まで、幅広い場面で検証されています。
特に、標的となる攻撃は、バナナをスラグとして、トラックを大砲として、敵のNeRFによって引き起こされる実用的なリスクを示すなど、信頼性の高い誤分類を達成した。
攻撃以外にも、 \textit{AdvIRL}の生成した敵モデルは、視覚システムの堅牢性を高めるために、敵の訓練データとして機能する。
textit{AdvIRL} の実装は \url{https://github.com/Tommy-Nguyen-cpu/AdvIRL/tree/MultiView-Clean} で公開されている。
関連論文リスト
- Transferable 3D Adversarial Shape Completion using Diffusion Models [8.323647730916635]
3Dポイントクラウド機能学習は、3Dディープラーニングモデルのパフォーマンスを大幅に改善した。
既存の攻撃方法は、主にホワイトボックスのシナリオに焦点を当てており、最近提案された3Dディープラーニングモデルへの移行に苦労している。
本稿では,拡散モデルを用いて高品質な対向点雲を生成する。
提案した攻撃は、ブラックボックスモデルとディフェンスの両方に対して、最先端の敵攻撃法より優れている。
論文 参考訳(メタデータ) (2024-07-14T04:51:32Z) - An Analysis of Recent Advances in Deepfake Image Detection in an Evolving Threat Landscape [11.45988746286973]
ディープフェイクまたは合成画像は、オンラインプラットフォームに深刻なリスクをもたらす。
われわれは8つの最先端の検出器を研究し、配備の準備が整っていないと論じている。
論文 参考訳(メタデータ) (2024-04-24T21:21:50Z) - Targeted Adversarial Attacks on Generalizable Neural Radiance Fields [0.0]
低強度対向攻撃と対向パッチの両方によって、一般化可能なNeRFが攻撃されるかを示す。
また、これらの攻撃によって特定の事前定義された出力シーンが生成されるターゲットアタックも実演し、成功させた。
論文 参考訳(メタデータ) (2023-10-05T14:59:18Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - 3DHacker: Spectrum-based Decision Boundary Generation for Hard-label 3D
Point Cloud Attack [64.83391236611409]
そこで本研究では,クラスラベルの知識にのみ依存して,敵対的なサンプルを生成する新しい3D攻撃手法を提案する。
3DHackerは、難しいハードラベル設定でも、既存の3D攻撃の攻撃性能と敵のクオリティを競争力で上回っている。
論文 参考訳(メタデータ) (2023-08-15T03:29:31Z) - Adaptive Local Adversarial Attacks on 3D Point Clouds for Augmented
Reality [10.118505317224683]
敵対的な例は、3Dニューラルネットワークモデルの堅牢性を改善する上で有益である。
ほとんどの3次元対向攻撃法は、全点の雲を乱して敵の例を生成する。
本稿では,3次元点群に適応的局所対向攻撃法(AL-Adv)を提案し,対向点群を生成する。
論文 参考訳(メタデータ) (2023-03-12T11:52:02Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Generating Unrestricted 3D Adversarial Point Clouds [9.685291478330054]
3Dポイントクラウドのディープラーニングは、いまだに敵の攻撃に弱い。
本稿では,現実的な3D点雲を生成するために,AdvGCGAN(Adversarial Graph-Convolutional Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-11-17T08:30:18Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。