論文の概要: RenderBender: A Survey on Adversarial Attacks Using Differentiable Rendering
- arxiv url: http://arxiv.org/abs/2411.09749v2
- Date: Fri, 30 May 2025 22:53:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 16:22:42.87722
- Title: RenderBender: A Survey on Adversarial Attacks Using Differentiable Rendering
- Title(参考訳): RenderBender: 微分レンダリングによる敵攻撃に関する調査
- Authors: Matthew Hull, Haoran Wang, Matthew Lau, Alec Helbling, Mansi Phute, Chao Zhang, Zsolt Kira, Willian Lunardi, Martin Andreoni, Wenke Lee, Polo Chau,
- Abstract要約: 異なるレンダリング技術は、物理的に可塑性と異なるシーンのモデルの両方を生成することができる。
敵の機械学習コミュニティはまだ、これらの能力を十分に探求していない。
この調査は、多様な目標とタスクを統一する最初のフレームワークに貢献する。
- 参考スコア(独自算出の注目度): 34.287158982796605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentiable rendering techniques like Gaussian Splatting and Neural Radiance Fields have become powerful tools for generating high-fidelity models of 3D objects and scenes. Their ability to produce both physically plausible and differentiable models of scenes are key ingredient needed to produce physically plausible adversarial attacks on DNNs. However, the adversarial machine learning community has yet to fully explore these capabilities, partly due to differing attack goals (e.g., misclassification, misdetection) and a wide range of possible scene manipulations used to achieve them (e.g., alter texture, mesh). This survey contributes the first framework that unifies diverse goals and tasks, facilitating easy comparison of existing work, identifying research gaps, and highlighting future directions - ranging from expanding attack goals and tasks to account for new modalities, state-of-the-art models, tools, and pipelines, to underscoring the importance of studying real-world threats in complex scenes.
- Abstract(参考訳): Gaussian SplattingやNeural Radiance Fieldsのような異なるレンダリング技術は、3Dオブジェクトやシーンの高忠実度モデルを生成する強力なツールになっている。
物理的に可視的かつ識別可能なシーンのモデルを作成する能力は、DNNに対して物理的に可視的な敵攻撃を発生させるのに必要な重要な要素である。
しかし、敵の機械学習コミュニティは、攻撃目標(例えば、分類ミス、誤検出)と、それらを達成するのに使える様々なシーン操作(例えば、テクスチャの変更、メッシュ)のために、これらの能力を十分に探求していない。
この調査は、さまざまな目標とタスクを統一する最初のフレームワークに貢献し、既存の作業を簡単に比較し、研究のギャップを特定し、攻撃目標とタスクを拡張し、新しいモダリティ、最先端のモデル、ツール、パイプラインを考慮に入れ、複雑なシーンにおける現実世界の脅威を研究することの重要性を明らかにするまで、将来の方向性を強調する。
関連論文リスト
- Targeted View-Invariant Adversarial Perturbations for 3D Object Recognition [1.7205106391379021]
敵対的攻撃は3Dオブジェクト認識において重大な課題を引き起こす。
本稿では,頑健な逆数例を作成するための新しい手法であるビュー不変逆数摂動(VIAP)を紹介する。
目標設定と未目標設定の両方において,VIAPの有効性を示す。
論文 参考訳(メタデータ) (2024-12-17T23:23:25Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Deviations in Representations Induced by Adversarial Attacks [0.0]
研究によると、ディープラーニングモデルは敵の攻撃に弱い。
この発見は研究の新たな方向性をもたらし、脆弱性のあるネットワークを攻撃して防御するためにアルゴリズムが開発された。
本稿では,敵攻撃によって引き起こされる表現の偏差を計測し,解析する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T17:40:08Z) - Differential Evolution based Dual Adversarial Camouflage: Fooling Human
Eyes and Object Detectors [0.190365714903665]
本研究では,2段階からなる二重対向カモフラージュ法(DE_DAC)を提案する。
第1段階では、レンダリング対象とシーン画像との差を最小限に抑えるために、グローバルテクスチャを最適化する。
第2段階では、局所的なテクスチャを最適化する3つの損失関数を設計し、物体検出を非効率にする。
論文 参考訳(メタデータ) (2022-10-17T09:07:52Z) - Uncertainty Guided Policy for Active Robotic 3D Reconstruction using
Neural Radiance Fields [82.21033337949757]
本稿では,物体の暗黙のニューラル表現の各光線に沿ったカラーサンプルの重量分布のエントロピーを計算した線量不確実性推定器を提案する。
提案した推定器を用いた新しい視点から, 基礎となる3次元形状の不確かさを推測することが可能であることを示す。
ニューラルラディアンス場に基づく表現における線量不確実性によって導かれる次ベクター選択ポリシーを提案する。
論文 参考訳(メタデータ) (2022-09-17T21:28:57Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Physical world assistive signals for deep neural network classifiers --
neither defense nor attack [23.138996515998347]
攻撃中であろうとなかろうと、モデルの信頼度スコアを改善するために最適化されたアシスト信号の概念を導入する。
本手法により生成された補助信号が深層モデルの精度と信頼性を高めることを実験的に評価した。
我々は、現実世界の物体の検知可能性に寄与する可能性のあるパターンを再考したり、回避するために、これらの洞察を利用する方法について議論する。
論文 参考訳(メタデータ) (2021-05-03T04:02:48Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。