論文の概要: StegaNeRF: Embedding Invisible Information within Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2212.01602v1
- Date: Sat, 3 Dec 2022 12:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 17:06:55.272263
- Title: StegaNeRF: Embedding Invisible Information within Neural Radiance Fields
- Title(参考訳): StegaNeRF: ニューラルラジアンスフィールドに見えない情報を埋め込む
- Authors: Chenxin Li, Brandon Y. Feng, Zhiwen Fan, Panwang Pan, Zhangyang Wang
- Abstract要約: 我々は、NeRFレンダリングにステガノグラフィー情報を埋め込む方法であるStegaNeRFを提案する。
我々は、NeRFで描画された画像から正確な隠れ情報抽出を可能にする最適化フレームワークを設計する。
StegaNeRFは、NeRFレンダリングにカスタマイズ可能で、認識不能で、回復不能な情報を注入する新しい問題に対する最初の調査である。
- 参考スコア(独自算出の注目度): 61.653702733061785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in neural rendering imply a future of widespread visual data
distributions through sharing NeRF model weights. However, while common visual
data (images and videos) have standard approaches to embed ownership or
copyright information explicitly or subtly, the problem remains unexplored for
the emerging NeRF format. We present StegaNeRF, a method for steganographic
information embedding in NeRF renderings. We design an optimization framework
allowing accurate hidden information extractions from images rendered by NeRF,
while preserving its original visual quality. We perform experimental
evaluations of our method under several potential deployment scenarios, and we
further discuss the insights discovered through our analysis. StegaNeRF
signifies an initial exploration into the novel problem of instilling
customizable, imperceptible, and recoverable information to NeRF renderings,
with minimal impact to rendered images. Project page:
https://xggnet.github.io/StegaNeRF/.
- Abstract(参考訳): ニューラルレンダリングの最近の進歩は、NeRFモデル重みを共有することで、広範な視覚データ分布の未来を示唆している。
しかし、一般的なビジュアルデータ(画像やビデオ)は、所有権や著作権情報を明示的にあるいは微妙に埋め込むための標準的なアプローチを持っているが、新たなNeRFフォーマットでは未検討のままである。
我々は、NeRFレンダリングにステガノグラフィー情報を埋め込む方法であるStegaNeRFを提案する。
我々は、NeRFで描画された画像から正確な隠れ情報抽出が可能な最適化フレームワークを設計する。
本手法は,いくつかの潜在的な展開シナリオで実験的評価を行い,分析結果から得られた知見について検討する。
StegaNeRFは、NeRFレンダリングにカスタマイズ可能で、認識不能で、回復不能な情報を注入するという、レンダリング画像への影響を最小限に抑えて、新しい問題に対する最初の調査である。
プロジェクトページ: https://xggnet.github.io/StegaNeRF/。
関連論文リスト
- NeRF-VPT: Learning Novel View Representations with Neural Radiance
Fields via View Prompt Tuning [63.39461847093663]
本研究では,これらの課題に対処するための新しいビュー合成手法であるNeRF-VPTを提案する。
提案するNeRF-VPTは、先行レンダリング結果から得られたRGB情報を、その後のレンダリングステージのインストラクティブな視覚的プロンプトとして機能するカスケーディングビュープロンプトチューニングパラダイムを用いている。
NeRF-VPTは、追加のガイダンスや複雑なテクニックに頼ることなく、トレーニングステージ毎に前のステージレンダリングからRGBデータをサンプリングするだけである。
論文 参考訳(メタデータ) (2024-03-02T22:08:10Z) - SimpleNeRF: Regularizing Sparse Input Neural Radiance Fields with
Simpler Solutions [6.9980855647933655]
NeRFによって推定される深さの監視は、より少ないビューで効果的にトレーニングするのに役立つ。
我々は、位置エンコーディングとビュー依存放射能の役割を探求することによって、より単純な解決を促進する拡張モデルの設計を行う。
上記の正規化を用いて、2つの一般的なデータセット上での最先端のビュー合成性能を実現する。
論文 参考訳(メタデータ) (2023-09-07T18:02:57Z) - NeRFuser: Large-Scale Scene Representation by NeRF Fusion [35.749208740102546]
Neural Radiance Fields (NeRF)のような暗黙的な視覚表現の実用的な利点は、そのメモリ効率である。
既製のNeRFへのアクセスのみを前提としたNeRF登録とブレンディングのための新しいアーキテクチャであるNeRFuserを提案する。
論文 参考訳(メタデータ) (2023-05-22T17:59:05Z) - NeRFVS: Neural Radiance Fields for Free View Synthesis via Geometry
Scaffolds [60.1382112938132]
室内における自由ナビゲーションを可能にする新しいニューラル放射場(NeRF)法であるNeRFVSを提案する。
NeRFは、トレーニングビューと大きく異なる新規ビューに苦しむ一方で、入力ビューと同様の新規ビューの画像のレンダリングにおいて、印象的なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-13T06:40:08Z) - PANeRF: Pseudo-view Augmentation for Improved Neural Radiance Fields
Based on Few-shot Inputs [3.818285175392197]
神経放射場(NeRF)は複雑なシーンの新しいビューに有望な応用がある。
NeRFは、高品質な画像を生成するために、数百の数字の高密度な入力ビューを必要とする。
少ショット入力の幾何を考慮した十分な量のデータ拡張方式であるNeRFの擬似ビュー拡張を提案する。
論文 参考訳(メタデータ) (2022-11-23T08:01:10Z) - NeRF-RPN: A general framework for object detection in NeRFs [54.54613914831599]
NeRF-RPNは、シーン内のオブジェクトのすべてのバウンディングボックスを検出することを目的としている。
NeRF-RPNは一般的なフレームワークであり、クラスラベルなしでオブジェクトを検出できる。
論文 参考訳(メタデータ) (2022-11-21T17:02:01Z) - ActiveNeRF: Learning where to See with Uncertainty Estimation [36.209200774203005]
近年,Neural Radiance Fields (NeRF) は,3次元シーンの再構成や,スパース2次元画像からの新規ビューの合成に有望な性能を示した。
本稿では,制約のある入力予算で3Dシーンをモデル化することを目的とした,新しい学習フレームワークであるActiveNeRFを提案する。
論文 参考訳(メタデータ) (2022-09-18T12:09:15Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。