論文の概要: Adversarial Attacks Using Differentiable Rendering: A Survey
- arxiv url: http://arxiv.org/abs/2411.09749v1
- Date: Thu, 14 Nov 2024 19:03:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:47.850315
- Title: Adversarial Attacks Using Differentiable Rendering: A Survey
- Title(参考訳): 識別可能なレンダリングを用いた敵攻撃の実態調査
- Authors: Matthew Hull, Chao Zhang, Zsolt Kira, Duen Horng Chau,
- Abstract要約: 微分可能なレンダリング手法は、写真現実的で物理的に妥当な敵攻撃を生成するための有望な手段として現れてきた。
我々の調査は、研究者や実践者が敵の攻撃に対するコンピュータビジョンシステムの脆弱性をよりよく理解するのに役立ちます。
- 参考スコア(独自算出の注目度): 41.133107951792496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentiable rendering methods have emerged as a promising means for generating photo-realistic and physically plausible adversarial attacks by manipulating 3D objects and scenes that can deceive deep neural networks (DNNs). Recently, differentiable rendering capabilities have evolved significantly into a diverse landscape of libraries, such as Mitsuba, PyTorch3D, and methods like Neural Radiance Fields and 3D Gaussian Splatting for solving inverse rendering problems that share conceptually similar properties commonly used to attack DNNs, such as back-propagation and optimization. However, the adversarial machine learning research community has not yet fully explored or understood such capabilities for generating attacks. Some key reasons are that researchers often have different attack goals, such as misclassification or misdetection, and use different tasks to accomplish these goals by manipulating different representation in a scene, such as the mesh or texture of an object. This survey adopts a task-oriented unifying framework that systematically summarizes common tasks, such as manipulating textures, altering illumination, and modifying 3D meshes to exploit vulnerabilities in DNNs. Our framework enables easy comparison of existing works, reveals research gaps and spotlights exciting future research directions in this rapidly evolving field. Through focusing on how these tasks enable attacks on various DNNs such as image classification, facial recognition, object detection, optical flow and depth estimation, our survey helps researchers and practitioners better understand the vulnerabilities of computer vision systems against photorealistic adversarial attacks that could threaten real-world applications.
- Abstract(参考訳): 異なるレンダリング手法は、ディープニューラルネットワーク(DNN)を騙すことができる3Dオブジェクトやシーンを操作することによって、フォトリアリスティックで物理的に妥当な敵攻撃を生成するための有望な手段として登場した。
最近、差別化可能なレンダリング機能は、Mitsuba、PyTorch3D、Neural Radiance Fieldsや3D Gaussian Splattingといった、バックプロパゲーションや最適化など、DNNを攻撃するのによく使われる概念的に類似した特性を共有する逆レンダリング問題の解決方法など、さまざまなライブラリのランドスケープに大きく進化している。
しかし、敵の機械学習研究コミュニティは、攻撃を発生させる能力について、まだ十分に調べられていない。
主な理由は、研究者がしばしば、誤分類や誤検出のような異なる攻撃目標を持ち、異なるタスクを使用して、オブジェクトのメッシュやテクスチャなどのシーンで異なる表現を操作することである。
この調査では、テクスチャの操作、照明の変更、DNNの脆弱性を悪用する3Dメッシュの変更など、一般的なタスクを体系的に要約するタスク指向統一フレームワークを採用した。
我々のフレームワークは、この急速に発展する分野において、既存の研究を簡単に比較でき、研究のギャップとスポットライトがエキサイティングな将来の研究方向を示す。
これらのタスクが、画像分類、顔認識、物体検出、光学フロー、深度推定などの様々なDNNに対する攻撃を可能にすることに焦点を当てて、我々の調査は、研究者や実践者が現実世界のアプリケーションに脅威をもたらす可能性のある光現実的敵攻撃に対するコンピュータビジョンシステムの脆弱性をよりよく理解するのに役立つ。
関連論文リスト
- AdvReal: Adversarial Patch Generation Framework with Application to Adversarial Safety Evaluation of Object Detection Systems [3.1980492662961515]
本研究では,2次元と3次元の両方のサンプルを対象とした統合型対向訓練フレームワークを提案する。
本研究では,非剛性表面モデリングと現実的な3次元マッチング機構を組み込んだ対向型サンプル現実性拡張手法を提案する。
論文 参考訳(メタデータ) (2025-05-22T08:54:03Z) - MetaScenes: Towards Automated Replica Creation for Real-world 3D Scans [76.39726619818896]
EAI(Embodied AI)の研究は、スキル獲得、シミュレート・トゥ・リアル・トランスファー、一般化をサポートするために、高品質で多様な3Dシーンを必要とする。
既存のデータセットは、このプロセスがアーティスト主導の設計に大きく依存していることを示している。
実世界のスキャンから構築した大規模でシミュレート可能な3DシーンデータセットであるMetaScenesを提案する。
論文 参考訳(メタデータ) (2025-05-05T06:13:25Z) - SIGHT: Synthesizing Image-Text Conditioned and Geometry-Guided 3D Hand-Object Trajectories [124.24041272390954]
手動物体の相互作用をモデル化することは、ロボットと具体化されたAIシステムを前進させる大きな可能性を秘めている。
SIGHTは、1つの画像から現実的で物理的に妥当な3Dハンドオブジェクトインタラクショントラジェクトリを生成することに焦点を当てた,新しいタスクである。
SIGHT-Fusionは,データベースから最もよく似た3Dオブジェクトメッシュを抽出し,この課題に対処する,新しい拡散型画像文条件付き生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-28T20:53:20Z) - Targeted View-Invariant Adversarial Perturbations for 3D Object Recognition [1.7205106391379021]
敵対的攻撃は3Dオブジェクト認識において重大な課題を引き起こす。
本稿では,頑健な逆数例を作成するための新しい手法であるビュー不変逆数摂動(VIAP)を紹介する。
目標設定と未目標設定の両方において,VIAPの有効性を示す。
論文 参考訳(メタデータ) (2024-12-17T23:23:25Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - 3D objects and scenes classification, recognition, segmentation, and
reconstruction using 3D point cloud data: A review [5.85206759397617]
3次元(3D)点雲解析は、現実的な画像やマシンビジョンにおいて魅力的な対象の1つとなっている。
最近、ディープラーニングモデルのような様々な技術を用いて、新しい戦略の開発に多大な努力が注がれている。
オブジェクトやシーンの検出,認識,セグメンテーション,再構築など,3Dポイントで行うさまざまなタスクについて検討した。
論文 参考訳(メタデータ) (2023-06-09T15:45:23Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Deviations in Representations Induced by Adversarial Attacks [0.0]
研究によると、ディープラーニングモデルは敵の攻撃に弱い。
この発見は研究の新たな方向性をもたらし、脆弱性のあるネットワークを攻撃して防御するためにアルゴリズムが開発された。
本稿では,敵攻撃によって引き起こされる表現の偏差を計測し,解析する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T17:40:08Z) - Differential Evolution based Dual Adversarial Camouflage: Fooling Human
Eyes and Object Detectors [0.190365714903665]
本研究では,2段階からなる二重対向カモフラージュ法(DE_DAC)を提案する。
第1段階では、レンダリング対象とシーン画像との差を最小限に抑えるために、グローバルテクスチャを最適化する。
第2段階では、局所的なテクスチャを最適化する3つの損失関数を設計し、物体検出を非効率にする。
論文 参考訳(メタデータ) (2022-10-17T09:07:52Z) - Uncertainty Guided Policy for Active Robotic 3D Reconstruction using
Neural Radiance Fields [82.21033337949757]
本稿では,物体の暗黙のニューラル表現の各光線に沿ったカラーサンプルの重量分布のエントロピーを計算した線量不確実性推定器を提案する。
提案した推定器を用いた新しい視点から, 基礎となる3次元形状の不確かさを推測することが可能であることを示す。
ニューラルラディアンス場に基づく表現における線量不確実性によって導かれる次ベクター選択ポリシーを提案する。
論文 参考訳(メタデータ) (2022-09-17T21:28:57Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Beyond RGB: Scene-Property Synthesis with Neural Radiance Fields [32.200557554874784]
本稿では,暗黙の3次元表現とニューラルレンダリングの最近の進歩を活用し,シーン理解への新たなアプローチを提案する。
ニューラル・レージアンス・フィールド(NeRF)の大成功を生かして,ネRFを用いたシーン・プロパリティ・シンセサイザーを導入する。
セマンティックセグメンテーション,表面正規推定,リシェーディング,キーポイント検出,エッジ検出など,統合されたフレームワーク下でのさまざまなシーン理解タスクへの対処を容易にする。
論文 参考訳(メタデータ) (2022-06-09T17:59:50Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Messing Up 3D Virtual Environments: Transferable Adversarial 3D Objects [21.86544028303682]
本研究では, 容易にアクセス可能な要素からなるツールチェーンを用いて, テクスチャを変更することで, 対向3Dオブジェクトの製作方法について検討する。
既成の制限されたサロゲートを用いて、対向オブジェクトを作成することは可能であり、実際に簡単であることを示す。
そこで本研究では, 2種類の対角線を交差させて, ターゲットエンジンに有効と推定されるテクスチャ要素に変化を集中させるサリエンシ攻撃を提案する。
論文 参考訳(メタデータ) (2021-09-17T11:06:23Z) - Physical world assistive signals for deep neural network classifiers --
neither defense nor attack [23.138996515998347]
攻撃中であろうとなかろうと、モデルの信頼度スコアを改善するために最適化されたアシスト信号の概念を導入する。
本手法により生成された補助信号が深層モデルの精度と信頼性を高めることを実験的に評価した。
我々は、現実世界の物体の検知可能性に寄与する可能性のあるパターンを再考したり、回避するために、これらの洞察を利用する方法について議論する。
論文 参考訳(メタデータ) (2021-05-03T04:02:48Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。