論文の概要: NeRFool: Uncovering the Vulnerability of Generalizable Neural Radiance
Fields against Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2306.06359v1
- Date: Sat, 10 Jun 2023 06:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:21:57.439835
- Title: NeRFool: Uncovering the Vulnerability of Generalizable Neural Radiance
Fields against Adversarial Perturbations
- Title(参考訳): NeRFool: 対向性摂動に対する一般化可能なニューラルラジアンスフィールドの脆弱性を明らかにする
- Authors: Yonggan Fu, Ye Yuan, Souvik Kundu, Shang Wu, Shunyao Zhang, Yingyan
Lin
- Abstract要約: Generalizable Neural Radiance Fields (GNeRF) は、新しいビュー合成のための最も有望な現実のソリューションの1つである。
我々は、GNeRFの対角的堅牢性を理解するための最初の研究であるNeRFoolについて述べる。
我々はさらに、GNeRFを広範囲のターゲットビューで効果的に攻撃できる2つの技術を統合するNeRFool+を開発した。
- 参考スコア(独自算出の注目度): 26.405193076595072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalizable Neural Radiance Fields (GNeRF) are one of the most promising
real-world solutions for novel view synthesis, thanks to their cross-scene
generalization capability and thus the possibility of instant rendering on new
scenes. While adversarial robustness is essential for real-world applications,
little study has been devoted to understanding its implication on GNeRF. We
hypothesize that because GNeRF is implemented by conditioning on the source
views from new scenes, which are often acquired from the Internet or
third-party providers, there are potential new security concerns regarding its
real-world applications. Meanwhile, existing understanding and solutions for
neural networks' adversarial robustness may not be applicable to GNeRF, due to
its 3D nature and uniquely diverse operations. To this end, we present NeRFool,
which to the best of our knowledge is the first work that sets out to
understand the adversarial robustness of GNeRF. Specifically, NeRFool unveils
the vulnerability patterns and important insights regarding GNeRF's adversarial
robustness. Built upon the above insights gained from NeRFool, we further
develop NeRFool+, which integrates two techniques capable of effectively
attacking GNeRF across a wide range of target views, and provide guidelines for
defending against our proposed attacks. We believe that our NeRFool/NeRFool+
lays the initial foundation for future innovations in developing robust
real-world GNeRF solutions. Our codes are available at:
https://github.com/GATECH-EIC/NeRFool.
- Abstract(参考訳): Generalizable Neural Radiance Fields (GNeRF)は、そのクロスシーンの一般化能力と、新しいシーンでの即時レンダリングの可能性により、新しいビュー合成のための最も有望な現実のソリューションの1つである。
現実の応用には敵の堅牢性が不可欠であるが、GNeRFに対する影響を理解する研究はほとんど行われていない。
我々は、GNeRFはインターネットやサードパーティーからしばしば取得される新しいシーンのソースビューを条件付けして実装されているため、現実世界のアプリケーションに新たなセキュリティ上の懸念が生じる可能性があると仮定する。
一方、ニューラルネットワークの対角性に対する既存の理解と解決策は、GNeRFには適用できないかもしれない。
この目的のために我々は,GNeRFの対角的堅牢性を理解するための最初の研究であるNeRFoolを提案する。
特に、NeRFoolはGNeRFの対角的堅牢性に関する脆弱性パターンと重要な洞察を明らかにしている。
以上の知見に基づいて、我々は、GNeRFを広範囲のターゲットビューで効果的に攻撃できる2つの技術を統合したNeRFool+を開発し、提案した攻撃に対する防御ガイドラインを提供する。
我々は、我々のNeRFool/NeRFool+が、堅牢な現実世界のGNeRFソリューションを開発する上で、将来のイノベーションの基盤となると信じている。
私たちのコードは、https://github.com/GATECH-EIC/NeRFool.comで利用可能です。
関連論文リスト
- IPA-NeRF: Illusory Poisoning Attack Against Neural Radiance Fields [6.603160159983616]
Illusory Poisoning Attack against Neural Radiance Fields (IPA-NeRF)について紹介する。
この攻撃では、隠れたバックドアビューをNeRFに埋め込み、所定の出力を生成する。
我々の攻撃は、特定の位置でユーザーや下流のモデルを騙し、NeRFの異常が他の視点では検出できないことを確実にするように設計されています。
論文 参考訳(メタデータ) (2024-07-16T17:11:43Z) - Protecting NeRFs' Copyright via Plug-And-Play Watermarking Base Model [29.545874014535297]
ニューラル・ラジアンス・フィールド(NeRF)は3次元シーン表現の鍵となる手法となっている。
我々は,NeRFの著作権保護のためのプラグイン・アンド・プレイ戦略を採用したtextbfNeRFProtectorを提案する。
論文 参考訳(メタデータ) (2024-07-10T15:06:52Z) - Are Your Models Still Fair? Fairness Attacks on Graph Neural Networks via Node Injections [28.86365261170078]
グラフニューラルネットワーク(GNN)では、悪意のある敵対的攻撃に直面した際の公正な脆弱性が明らかにされている。
我々は、より現実的な環境でGNNフェアネスの脆弱性を探求するノードインジェクションベースのフェアネスアタック(NIFA)を紹介する。
NIFAは、ノードの1%だけを注入することで、フェアネスを意識したGNNを含むメインストリームのGNNの公平性を著しく損なう可能性がある。
論文 参考訳(メタデータ) (2024-06-05T08:26:53Z) - NeRF in Robotics: A Survey [95.11502610414803]
近年の神経暗黙表現の出現は、コンピュータビジョンとロボティクス分野に急進的な革新をもたらした。
NeRFは、単純化された数学的モデル、コンパクトな環境記憶、連続的なシーン表現などの大きな表現上の利点から、この傾向を引き起こしている。
論文 参考訳(メタデータ) (2024-05-02T14:38:18Z) - 3D Visibility-aware Generalizable Neural Radiance Fields for Interacting
Hands [51.305421495638434]
ニューラル放射場(NeRF)は、シーン、オブジェクト、人間の3D表現を約束する。
本稿では,手動操作のための一般化可能な視認可能なNeRFフレームワークを提案する。
Interhand2.6Mデータセットの実験により、提案したVA-NeRFは従来のNeRFよりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2024-01-02T00:42:06Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - AltNeRF: Learning Robust Neural Radiance Field via Alternating
Depth-Pose Optimization [25.44715538841181]
AltNeRFは、既知のカメラのポーズに頼ることなく、回復力のあるNeRF表現を作成するように設計された新しいフレームワークである。
我々は、NeRF出力を調和して融合させる交互アルゴリズムを導入する。
SMDEは、コンデンス駆動のメカニズムにより拡張される。
深度事前の整合性
実験では、高忠実でロバストな新奇なビューを生成する上で、AltNeRFの魅力的な能力を示す。
論文 参考訳(メタデータ) (2023-08-19T12:41:35Z) - Correspondence Distillation from NeRF-based GAN [135.99756183251228]
神経放射野(NeRF)は、物体やシーンの微細な詳細を保存するための有望な結果を示している。
同じカテゴリの異なるNeRFをまたいで密度の高い対応を構築することは、依然として未解決の問題である。
トレーニング済みのNeRFベースGANにカプセル化されているリッチなセマンティクスと構造的先行性を活用することで,これらの課題を回避可能であることを示す。
論文 参考訳(メタデータ) (2022-12-19T18:54:59Z) - StegaNeRF: Embedding Invisible Information within Neural Radiance Fields [61.653702733061785]
我々は、NeRFレンダリングにステガノグラフィー情報を埋め込む方法であるStegaNeRFを提案する。
我々は、NeRFで描画された画像から正確な隠れ情報抽出を可能にする最適化フレームワークを設計する。
StegaNeRFは、NeRFレンダリングにカスタマイズ可能で、認識不能で、回復不能な情報を注入する新しい問題に対する最初の調査である。
論文 参考訳(メタデータ) (2022-12-03T12:14:19Z) - Aug-NeRF: Training Stronger Neural Radiance Fields with Triple-Level
Physically-Grounded Augmentations [111.08941206369508]
我々は,NeRFトレーニングの正規化にロバストなデータ拡張のパワーを初めてもたらすAugmented NeRF(Aug-NeRF)を提案する。
提案手法では,最悪の場合の摂動を3段階のNeRFパイプラインにシームレスにブレンドする。
Aug-NeRFは、新しいビュー合成と基礎となる幾何再構成の両方において、NeRF性能を効果的に向上させる。
論文 参考訳(メタデータ) (2022-07-04T02:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。