論文の概要: Editing Implicit and Explicit Representations of Radiance Fields: A Survey
- arxiv url: http://arxiv.org/abs/2412.17628v1
- Date: Mon, 23 Dec 2024 14:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:57:50.544579
- Title: Editing Implicit and Explicit Representations of Radiance Fields: A Survey
- Title(参考訳): 放射界の暗黙的・明示的表現の編集--調査
- Authors: Arthur Hubert, Gamal Elghazaly, Raphael Frank,
- Abstract要約: 本稿では,既存の作品を編集手法に基づいて分類する新たな分類法を提案する。
我々は、編集オプションと性能の観点から最先端のアプローチを比較した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Neural Radiance Fields (NeRF) revolutionized novel view synthesis in recent years by offering a new volumetric representation, which is compact and provides high-quality image rendering. However, the methods to edit those radiance fields developed slower than the many improvements to other aspects of NeRF. With the recent development of alternative radiance field-based representations inspired by NeRF as well as the worldwide rise in popularity of text-to-image models, many new opportunities and strategies have emerged to provide radiance field editing. In this paper, we deliver a comprehensive survey of the different editing methods present in the literature for NeRF and other similar radiance field representations. We propose a new taxonomy for classifying existing works based on their editing methodologies, review pioneering models, reflect on current and potential new applications of radiance field editing, and compare state-of-the-art approaches in terms of editing options and performance.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、コンパクトで高品質な画像レンダリングを提供する新しいボリューム表現を提供することによって、近年、斬新なビュー合成に革命をもたらした。
しかし、これらのラジアンスフィールドの編集方法は、NeRFの他の多くの面の改善よりも遅く発達した。
近年、NeRFにインスパイアされた代替放射場に基づく表現が開発され、また世界中のテキスト・ツー・イメージ・モデルの人気が高まり、多くの新たな機会と戦略が登場し、放射場編集が実現されている。
本稿では、NeRFや他の類似の放射場表現の文献にみられる様々な編集方法について包括的に調査する。
本稿では,既存の作品を編集手法に基づいて分類する新たな分類法を提案し,先駆的モデルをレビューし,レーダランスフィールド編集の現在および潜在的新しい応用を反映し,編集オプションと性能の観点から最先端のアプローチを比較した。
関連論文リスト
- TurboEdit: Text-Based Image Editing Using Few-Step Diffusion Models [53.757752110493215]
テキストベースの一般的な編集フレームワーク – 編集フレンドリーなDDPM-noiseインバージョンアプローチ – に注目します。
高速サンプリング法への適用を解析し、その失敗を視覚的アーティファクトの出現と編集強度の不足という2つのクラスに分類する。
そこで我々は,新しいアーティファクトを導入することなく,効率よく編集の規模を拡大する疑似誘導手法を提案する。
論文 参考訳(メタデータ) (2024-08-01T17:27:28Z) - A Survey of Multimodal-Guided Image Editing with Text-to-Image Diffusion Models [117.77807994397784]
画像編集は、ユーザーが特定の要求を満たすために、与えられた合成画像または実際の画像を編集することを目的としている。
この分野での最近の顕著な進歩は、テキスト・ツー・イメージ(T2I)拡散モデルの開発に基づいている。
T2Iベースの画像編集手法は、編集性能を大幅に向上させ、マルチモーダル入力でガイドされたコンテンツを修正するためのユーザフレンドリーなインタフェースを提供する。
論文 参考訳(メタデータ) (2024-06-20T17:58:52Z) - Eta Inversion: Designing an Optimal Eta Function for Diffusion-based Real Image Editing [2.5602836891933074]
実際の画像を編集するための一般的な戦略は、拡散過程を反転させて元の画像のノイズ表現を得る。
拡散反転の現在の方法は、しばしば特定のテキストプロンプトに忠実で、ソースイメージによく似ている編集を生成するのに苦労する。
本稿では, DDIMサンプリング式における$eta$の役割を理論的に解析し, 編集性の向上を図った, 実画像編集のための新規かつ適応的な拡散インバージョン手法を提案する。
論文 参考訳(メタデータ) (2024-03-14T15:07:36Z) - SIGNeRF: Scene Integrated Generation for Neural Radiance Fields [1.1037667460077816]
高速かつ制御可能なNeRFシーン編集とシーン統合オブジェクト生成のための新しいアプローチを提案する。
新しい生成的更新戦略により、反復的な最適化を必要とせずに、編集された画像全体の3D一貫性が保証される。
画像拡散モデルの奥行き条件付け機構を利用して,編集の空間的位置を細かく制御する。
論文 参考訳(メタデータ) (2024-01-03T09:46:43Z) - LIME: Localized Image Editing via Attention Regularization in Diffusion Models [69.33072075580483]
本稿では拡散モデルにおける局所化画像編集のためのLIMEを提案する。
LIMEは、ユーザが指定した関心領域(RoI)や追加のテキスト入力を必要としない。
そこで本研究では,RoIにおける非関係なクロスアテンションスコアをデノナイジングステップ中にペナライズし,局所的な編集を確実にする新しいクロスアテンション正規化手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T18:59:59Z) - Iterative Multi-granular Image Editing using Diffusion Models [20.21694969555533]
EMILIE:イテレーティブ・マルチグラニュラー画像エディタを提案する。
新たに提案した設定を評価するためのベンチマークデータセットを新たに導入する。
論文 参考訳(メタデータ) (2023-09-01T17:59:29Z) - CeRF: Convolutional Neural Radiance Fields for New View Synthesis with Derivatives of Ray Modeling [16.788271424754488]
我々は、光線に沿った放射の微分をモデル化するために、コナールニューラルレージアンス場を導入する。
提案手法は, 1次元畳み込み演算に基づいて, 構造化ニューラルネットワークアーキテクチャによる潜在的光線表現を効果的に抽出する。
論文 参考訳(メタデータ) (2023-07-14T02:26:05Z) - Neural Relighting with Subsurface Scattering by Learning the Radiance
Transfer Gradient [73.52585139592398]
本稿では,ボリュームレンダリングによる放射移動場学習のための新しいフレームワークを提案する。
我々は、我々のコードと、地下散乱効果を持つ新しい光ステージのオブジェクトデータセットを公開します。
論文 参考訳(メタデータ) (2023-06-15T17:56:04Z) - Neural Radiance Fields (NeRFs): A Review and Some Recent Developments [0.0]
Neural Radiance Field(NeRF)は、完全に接続されたニューラルネットワークの重みの3Dシーンを表すフレームワークである。
ベースフレームワークの性能と能力を拡張する最近の開発によって、NeRFはポピュラーな研究分野になってきた。
論文 参考訳(メタデータ) (2023-04-30T03:23:58Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。