論文の概要: Freditor: High-Fidelity and Transferable NeRF Editing by Frequency Decomposition
- arxiv url: http://arxiv.org/abs/2404.02514v1
- Date: Wed, 3 Apr 2024 07:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 18:19:59.126380
- Title: Freditor: High-Fidelity and Transferable NeRF Editing by Frequency Decomposition
- Title(参考訳): Freditor:高周波分解による高忠実かつ転写可能なNeRF編集
- Authors: Yisheng He, Weihao Yuan, Siyu Zhu, Zilong Dong, Liefeng Bo, Qixing Huang,
- Abstract要約: 最近のNeRF編集パイプラインは、ぼやけた結果に悩まされながら、3Dシーンに2Dスタイリング結果を持ち上げる。
本稿では,高周波分解による高忠実かつ転写可能なNeRF編集を実現する。
- 参考スコア(独自算出の注目度): 32.74859815115775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper enables high-fidelity, transferable NeRF editing by frequency decomposition. Recent NeRF editing pipelines lift 2D stylization results to 3D scenes while suffering from blurry results, and fail to capture detailed structures caused by the inconsistency between 2D editings. Our critical insight is that low-frequency components of images are more multiview-consistent after editing compared with their high-frequency parts. Moreover, the appearance style is mainly exhibited on the low-frequency components, and the content details especially reside in high-frequency parts. This motivates us to perform editing on low-frequency components, which results in high-fidelity edited scenes. In addition, the editing is performed in the low-frequency feature space, enabling stable intensity control and novel scene transfer. Comprehensive experiments conducted on photorealistic datasets demonstrate the superior performance of high-fidelity and transferable NeRF editing. The project page is at \url{https://aigc3d.github.io/freditor}.
- Abstract(参考訳): 本稿では,高周波分解による高忠実かつ転写可能なNeRF編集を実現する。
最近のNeRF編集パイプラインは、ぼやけた結果に悩まされながら、3Dシーンに2Dのスタイリング結果を持ち上げ、また2D編集の不整合による詳細な構造を捉えることができない。
我々の重要な洞察は、画像の低周波成分は、高周波成分と比較して編集後より多視点一貫性が高いということである。
さらに、出現様式は、主に低周波成分に示され、内容の詳細は特に高周波部分に存在する。
これは、低周波成分の編集を行う動機となり、その結果、高忠実度な編集シーンが生まれる。
さらに、低周波特徴空間で編集を行い、安定した強度制御と新規なシーン転送を可能にする。
フォトリアリスティックデータセット上で行われた総合的な実験は、高忠実度かつ転写可能なNeRF編集の優れた性能を示す。
プロジェクトページは \url{https://aigc3d.github.io/freditor} にある。
関連論文リスト
- FRAG: Frequency Adapting Group for Diffusion Video Editing [20.251571476101088]
高周波漏れは、デノナイジング過程における高周波成分に由来することが多い。
我々は、一貫性と忠実度の観点からビデオ品質を向上させる周波数適応グループ(FRAG)を考案する。
論文 参考訳(メタデータ) (2024-06-10T06:24:19Z) - DATENeRF: Depth-Aware Text-based Editing of NeRFs [49.08848777124736]
我々は、NeRFシーンの深度情報を利用して異なる画像に2D編集を分散する塗装手法を提案する。
以上の結果から,本手法は既存のテキスト駆動型NeRFシーン編集手法よりも,より一貫性があり,ライフライクで,詳細な編集が可能であることが判明した。
論文 参考訳(メタデータ) (2024-04-06T06:48:16Z) - SealD-NeRF: Interactive Pixel-Level Editing for Dynamic Scenes by Neural
Radiance Fields [7.678022563694719]
SealD-NeRFは、動的な設定でピクセルレベルの編集を行うためのSeal-3Dの拡張である。
編集アクションを特定の時間枠にマッピングすることで、シーケンス間で一貫した編集を可能にする。
論文 参考訳(メタデータ) (2024-02-21T03:45:18Z) - DiffEditor: Boosting Accuracy and Flexibility on Diffusion-based Image
Editing [66.43179841884098]
大規模テキスト・ツー・イメージ(T2I)拡散モデルは、ここ数年で画像生成に革命をもたらした。
既存の拡散型画像編集における2つの弱点を正すためにDiffEditorを提案する。
本手法は,様々な精細な画像編集タスクにおいて,最先端の性能を効率的に達成することができる。
論文 参考訳(メタデータ) (2024-02-04T18:50:29Z) - Exploration and Improvement of Nerf-based 3D Scene Editing Techniques [4.065542931868335]
NeRFの高品質なシーン合成能力は、学者たちによってすぐに受け入れられた。
本稿では,現場や対象編集分野におけるNeRFに関する研究者の予備的調査についてレビューする。
論文 参考訳(メタデータ) (2024-01-23T02:53:06Z) - ProteusNeRF: Fast Lightweight NeRF Editing using 3D-Aware Image Context [26.07841568311428]
メモリフットプリントを低く保ちながら、高速で効率的な、非常にシンプルで効果的なニューラルネットワークアーキテクチャを提案する。
我々の表現は、訓練段階における意味的特徴蒸留による簡単なオブジェクト選択を可能にする。
局所的な3D対応画像コンテキストを提案し、ビュー一貫性のある画像編集を容易にし、微調整されたNeRFに抽出する。
論文 参考訳(メタデータ) (2023-10-15T21:54:45Z) - ED-NeRF: Efficient Text-Guided Editing of 3D Scene with Latent Space NeRF [60.47731445033151]
ED-NeRFと呼ばれる新しい3次元NeRF編集手法を提案する。
現実のシーンを、ユニークな精細化層を通して、潜時拡散モデル(LDM)の潜時空間に埋め込む。
このアプローチにより、より高速であるだけでなく、より編集しやすいNeRFバックボーンが得られる。
論文 参考訳(メタデータ) (2023-10-04T10:28:38Z) - Editing 3D Scenes via Text Prompts without Retraining [80.57814031701744]
DN2Nはテキスト駆動編集方式であり、普遍的な編集機能を備えたNeRFモデルの直接取得を可能にする。
本手法では,2次元画像のテキストベース編集モデルを用いて3次元シーン画像の編集を行う。
本手法は,外観編集,天気変化,材質変化,スタイル伝達など,複数種類の編集を行う。
論文 参考訳(メタデータ) (2023-09-10T02:31:50Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。