論文の概要: GENIE: Gaussian Encoding for Neural Radiance Fields Interactive Editing
- arxiv url: http://arxiv.org/abs/2508.02831v1
- Date: Mon, 04 Aug 2025 18:59:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.649308
- Title: GENIE: Gaussian Encoding for Neural Radiance Fields Interactive Editing
- Title(参考訳): GENIE: ニューラルラジアンフィールドインタラクティブ編集のためのガウス符号化
- Authors: Mikołaj Zieliński, Krzysztof Byrski, Tomasz Szczepanik, Przemysław Spurek,
- Abstract要約: 我々は、NeRFのレンダリング品質とGSの編集可能かつ構造化された表現を組み合わせたハイブリッドモデルGENIEを紹介する。
暗黙的および明示的な表現の強みを組み合わせることで、GENIEは直感的なシーン操作、動的相互作用、物理シミュレーションとの互換性をサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRF) and Gaussian Splatting (GS) have recently transformed 3D scene representation and rendering. NeRF achieves high-fidelity novel view synthesis by learning volumetric representations through neural networks, but its implicit encoding makes editing and physical interaction challenging. In contrast, GS represents scenes as explicit collections of Gaussian primitives, enabling real-time rendering, faster training, and more intuitive manipulation. This explicit structure has made GS particularly well-suited for interactive editing and integration with physics-based simulation. In this paper, we introduce GENIE (Gaussian Encoding for Neural Radiance Fields Interactive Editing), a hybrid model that combines the photorealistic rendering quality of NeRF with the editable and structured representation of GS. Instead of using spherical harmonics for appearance modeling, we assign each Gaussian a trainable feature embedding. These embeddings are used to condition a NeRF network based on the k nearest Gaussians to each query point. To make this conditioning efficient, we introduce Ray-Traced Gaussian Proximity Search (RT-GPS), a fast nearest Gaussian search based on a modified ray-tracing pipeline. We also integrate a multi-resolution hash grid to initialize and update Gaussian features. Together, these components enable real-time, locality-aware editing: as Gaussian primitives are repositioned or modified, their interpolated influence is immediately reflected in the rendered output. By combining the strengths of implicit and explicit representations, GENIE supports intuitive scene manipulation, dynamic interaction, and compatibility with physical simulation, bridging the gap between geometry-based editing and neural rendering. The code can be found under (https://github.com/MikolajZielinski/genie)
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)とガウス・スプラッティング(GS)は、最近3次元シーンの表現とレンダリングを変換した。
NeRFは、ニューラルネットワークを通して体積表現を学習することで、高忠実な新規ビュー合成を実現するが、その暗黙の符号化により、編集と物理的相互作用が困難になる。
対照的にGSは、シーンをガウスプリミティブの明示的なコレクションとして表現し、リアルタイムレンダリング、より高速なトレーニング、より直感的な操作を可能にしている。
この明示的な構造により、GSは特に対話的な編集や物理ベースのシミュレーションとの統合に適している。
本稿では,NeRFのフォトリアリスティックレンダリング品質とGSの編集および構造化表現を組み合わせたハイブリッドモデルであるGENIE(Gaussian Encoding for Neural Radiance Fields Interactive Editing)を紹介する。
外観モデリングに球面調和を用いる代わりに、各ガウスを訓練可能な特徴埋め込みとして割り当てる。
これらの埋め込みは、各クエリポイントに最も近いガウスアンkに基づいて、NeRFネットワークを条件付けるために使用される。
この条件を効率的にするために、改良されたレイトレーシングパイプラインに基づく高速なガウス探索であるレイトレーデッドガウス近似探索(RT-GPS)を導入する。
また,ガウス的特徴の初期化と更新を行うため,マルチレゾリューションハッシュグリッドを統合した。
ガウスのプリミティブが再配置または修正されると、それらの補間された影響は即座に出力に反映される。
暗黙的および明示的な表現の強みを組み合わせることで、GENIEは直感的なシーン操作、動的なインタラクション、物理シミュレーションとの互換性をサポートし、幾何学ベースの編集とニューラルレンダリングのギャップを埋める。
コードは以下の通りです (https://github.com/MikolajZielinski/genie)。
関連論文リスト
- HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - REdiSplats: Ray Tracing for Editable Gaussian Splatting [0.0]
レイトレーシングとメッシュによるフラットな3Dガウス表現を用いたREdiSplatsを紹介する。
実際、メッシュによってパラメータ化された平坦なガウス分布を用いてシーンをモデル化する。
BlenderやNvdiffrastといった3Dツールを使ってモデルをレンダリングすることで、既存のすべての3Dグラフィックス技術と統合することが可能になる。
論文 参考訳(メタデータ) (2025-03-15T22:42:21Z) - Textured Gaussians for Enhanced 3D Scene Appearance Modeling [58.134905268540436]
3D Gaussian Splatting (3DGS)は最先端の3D再構成およびレンダリング技術として登場した。
本稿では,それぞれにα(A), RGB, RGBAテクスチャマップを付加した一般化されたガウスの外観表現を提案する。
類似または少ないガウス数を用いて,既存の手法に比べて画質が向上したことを示す。
論文 参考訳(メタデータ) (2024-11-27T18:59:59Z) - PixelGaussian: Generalizable 3D Gaussian Reconstruction from Arbitrary Views [116.10577967146762]
PixelGaussianは、任意の視点から一般化可能な3Dガウス再構成を学習するための効率的なフレームワークである。
提案手法は,様々な視点によく一般化した最先端性能を実現する。
論文 参考訳(メタデータ) (2024-10-24T17:59:58Z) - RayGauss: Volumetric Gaussian-Based Ray Casting for Photorealistic Novel View Synthesis [3.4341938551046227]
微分レンダリング法は、新しいビュー合成に大きな進歩をもたらした。
不規則分布ガウスの異なる光線鋳造のための放射放射率cと密度シグマを一貫した定式化を行う。
適切なトレーニング時間を維持しつつ、Blenderデータセット上で25FPSの推論速度を達成しながら、最先端のレンダリングよりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-08-06T10:59:58Z) - GaussianForest: Hierarchical-Hybrid 3D Gaussian Splatting for Compressed Scene Modeling [40.743135560583816]
本稿では,ハイブリッド3Dガウスの森として景観を階層的に表現するガウス・フォレスト・モデリング・フレームワークを紹介する。
実験により、ガウス・フォレストは同等の速度と品質を維持するだけでなく、圧縮速度が10倍を超えることが示されている。
論文 参考訳(メタデータ) (2024-06-13T02:41:11Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - GaMeS: Mesh-Based Adapting and Modification of Gaussian Splatting [7.121259735505479]
メッシュと同じようにガウス成分を修正可能なガウスメッシュスプラッティング(GaMeS)モデルを導入する。
また、メッシュ上の位置のみに基づいてガウススプレートを定義し、アニメーション中の位置、スケール、回転を自動的に調整する。
論文 参考訳(メタデータ) (2024-02-02T14:50:23Z) - Neural Impostor: Editing Neural Radiance Fields with Explicit Shape
Manipulation [49.852533321916844]
マルチグリッドの暗黙の場とともに、明示的な四面体メッシュを組み込んだハイブリッド表現であるNeural Impostorを導入する。
我々のフレームワークは、多グリッドのバリ中心座標符号化を利用して、暗黙のフィールドの明示的な形状操作と幾何的編集を橋渡しする。
合成オブジェクトと実際のキャプチャデータの両方を編集するなど、多様な例や実験を通して、システムの堅牢性と適応性を示す。
論文 参考訳(メタデータ) (2023-10-09T04:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。