論文の概要: iVR-GS: Inverse Volume Rendering for Explorable Visualization via Editable 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2504.17954v1
- Date: Thu, 24 Apr 2025 21:56:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.584129
- Title: iVR-GS: Inverse Volume Rendering for Explorable Visualization via Editable 3D Gaussian Splatting
- Title(参考訳): iVR-GS: 編集可能な3Dガウススプレイティングによる探索可能な可視化のための逆ボリュームレンダリング
- Authors: Kaiyuan Tang, Siyuan Yao, Chaoli Wang,
- Abstract要約: 本稿では,ガウススプラッティング(iVR-GS)による逆ボリュームレンダリングを提案する。
iVR-GSは、インタラクティブなボリューム探索のためのシーン編集を可能にしながら、レンダリングコストを削減する。
我々は,他のNVSソリューションと比較して,iVR-GSの再現性や構成性に優れることを示す。
- 参考スコア(独自算出の注目度): 8.689359004580258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In volume visualization, users can interactively explore the three-dimensional data by specifying color and opacity mappings in the transfer function (TF) or adjusting lighting parameters, facilitating meaningful interpretation of the underlying structure. However, rendering large-scale volumes demands powerful GPUs and high-speed memory access for real-time performance. While existing novel view synthesis (NVS) methods offer faster rendering speeds with lower hardware requirements, the visible parts of a reconstructed scene are fixed and constrained by preset TF settings, significantly limiting user exploration. This paper introduces inverse volume rendering via Gaussian splatting (iVR-GS), an innovative NVS method that reduces the rendering cost while enabling scene editing for interactive volume exploration. Specifically, we compose multiple iVR-GS models associated with basic TFs covering disjoint visible parts to make the entire volumetric scene visible. Each basic model contains a collection of 3D editable Gaussians, where each Gaussian is a 3D spatial point that supports real-time scene rendering and editing. We demonstrate the superior reconstruction quality and composability of iVR-GS against other NVS solutions (Plenoxels, CCNeRF, and base 3DGS) on various volume datasets. The code is available at https://github.com/TouKaienn/iVR-GS.
- Abstract(参考訳): ボリュームビジュアライゼーションでは、転送関数(TF)の色と不透明度マップを指定するか、照明パラメータを調整することで、3次元データをインタラクティブに探索することができる。
しかし、大規模ボリュームのレンダリングには、リアルタイムパフォーマンスのために強力なGPUと高速メモリアクセスが必要である。
既存の新しいビュー合成(NVS)手法は、ハードウェア要件の低いレンダリング速度を提供するが、再構成されたシーンの可視部分は、事前設定されたTF設定によって固定され制約され、ユーザの探索が著しく制限される。
本稿では,対話型ボリューム探索のためのシーン編集を実現しつつ,レンダリングコストを削減した革新的なNVS手法であるGaussian splatting (iVR-GS) を用いた逆ボリュームレンダリングを提案する。
具体的には,複数のiVR-GSモデルを基本TFに関連付けて構成し,ボリュームシーン全体を可視化する。
各基本モデルは3D編集可能なガウスアンのコレクションを含み、各ガウスアンはリアルタイムのシーンレンダリングと編集をサポートする3D空間ポイントである。
我々は,様々なボリュームデータセット上で,他のNVSソリューション(Plenoxels,CCNeRF,base 3DGS)に対して,iVR-GSの再現性および構成性に優れることを示す。
コードはhttps://github.com/TouKaienn/iVR-GSで公開されている。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - SplatFlow: Multi-View Rectified Flow Model for 3D Gaussian Splatting Synthesis [19.351291267779416]
SplatFlowは3DGSの直接生成と編集を可能にする包括的フレームワークである。
SplatFlowは、マルチビュー整流(RF)モデルとガウス整流デコーダ(GSDecoder)の2つの主要コンポーネントから構成される。
我々は、MVImgNetとDL3DV-7Kデータセット上でSplatFlowの能力を検証し、様々な3D生成、編集、塗装に基づくタスクにおいて、その汎用性と有効性を示す。
論文 参考訳(メタデータ) (2024-11-25T14:46:17Z) - EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - SplatLoc: 3D Gaussian Splatting-based Visual Localization for Augmented Reality [50.179377002092416]
より少ないパラメータで高品質なレンダリングが可能な効率的なビジュアルローカライズ手法を提案する。
提案手法は,最先端の暗黙的視覚的ローカライゼーションアプローチに対して,より優れた,あるいは同等なレンダリングとローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T08:46:16Z) - FLoD: Integrating Flexible Level of Detail into 3D Gaussian Splatting for Customizable Rendering [8.838958391604175]
3D Gaussian Splatting (3DGS) は多数の小さなガウスを用いて高速かつ高品質なレンダリングを実現する。
この多数のガウスモデルへの依存は、メモリ制限のため、低コストデバイスへの3DGSベースのモデルの適用を制限する。
本稿では,FLoD(Flexible Level of Detail)を3DGSに統合し,ハードウェアの能力に応じて,シーンを様々な詳細レベルでレンダリングできるようにする。
論文 参考訳(メタデータ) (2024-08-23T07:56:25Z) - WE-GS: An In-the-wild Efficient 3D Gaussian Representation for Unconstrained Photo Collections [8.261637198675151]
制約のない写真コレクションからの新規ビュー合成(NVS)は、コンピュータグラフィックスでは困難である。
写真コレクションからのシーン再構築のための効率的なポイントベース微分可能レンダリングフレームワークを提案する。
提案手法は、新しいビューのレンダリング品質と、高収束・レンダリング速度の外観合成において、既存のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T15:17:37Z) - FreeSplat: Generalizable 3D Gaussian Splatting Towards Free-View Synthesis of Indoor Scenes [50.534213038479926]
FreeSplatは、長いシーケンス入力から自由視点合成まで、幾何学的に一貫した3Dシーンを再構築することができる。
ビュー数に関係なく、広いビュー範囲にわたる堅牢なビュー合成を実現するための、シンプルで効果的なフリービュートレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-05-28T08:40:14Z) - Octree-GS: Towards Consistent Real-time Rendering with LOD-Structured 3D Gaussians [18.774112672831155]
3D-GSは、NeRFベースのニューラルシーン表現と比較して、顕著なレンダリングの忠実さと効率を示した。
シーン表現のためのレベル・オブ・ディーテール分解をサポートするLOD構造型3次元ガウスアプローチを特徴とするOctree-GSを提案する。
論文 参考訳(メタデータ) (2024-03-26T17:39:36Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - NeuVV: Neural Volumetric Videos with Immersive Rendering and Editing [34.40837543752915]
本稿では, 没入型, 対話型, 時空間レンダリングをサポートするニューラルボリュームビデオ(NeuVV)と呼ばれるニューラルボルモグラフィー技術を提案する。
NeuVVは動的神経放射場(NeRF)をレンダリング可能で編集可能なプリミティブに符号化する。
さらに,コンシューマレベルのVRヘッドセットをサポートするハイブリッドなニューラルラスタライズレンダリングフレームワークを開発した。
論文 参考訳(メタデータ) (2022-02-12T15:23:16Z) - Deep Direct Volume Rendering: Learning Visual Feature Mappings From
Exemplary Images [57.253447453301796]
本稿では,ディープ・ダイレクト・ボリューム・レンダリング(Deep Direct Volume Rendering,DVR)を導入し,ディープ・ニューラル・ネットワークをDVRアルゴリズムに統合する。
潜在色空間におけるレンダリングを概念化し、深層アーキテクチャを用いて特徴抽出と分類のための暗黙マッピングを学習できるようにする。
我々の一般化は、画像空間の例から直接エンドツーエンドにトレーニングできる新しいボリュームレンダリングアーキテクチャを導き出すのに役立つ。
論文 参考訳(メタデータ) (2021-06-09T23:03:00Z) - Stable View Synthesis [100.86844680362196]
安定ビュー合成(SVS)について紹介する。
SVSは、自由に分散された視点からシーンを描写するソースイメージのセットを与えられた場合、シーンの新たなビューを合成する。
SVSは3つの異なる実世界のデータセットに対して定量的かつ質的に、最先端のビュー合成手法より優れている。
論文 参考訳(メタデータ) (2020-11-14T07:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。