論文の概要: TexGS-VolVis: Expressive Scene Editing for Volume Visualization via Textured Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2507.13586v1
- Date: Fri, 18 Jul 2025 00:14:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.157922
- Title: TexGS-VolVis: Expressive Scene Editing for Volume Visualization via Textured Gaussian Splatting
- Title(参考訳): TexGS-VolVis:テクスチャ型ガウス平滑化によるボリューム可視化のための表現的シーン編集
- Authors: Kaiyuan Tang, Kuangshi Ai, Jun Han, Chaoli Wang,
- Abstract要約: 我々はVolVisのためのテクスチャ化されたガウススプレイティングフレームワークであるTexGS-VolVisを紹介する。
TexGS-VolVisと2D-lift-3Dセグメンテーションに適した画像およびテキスト駆動非フォトリアリスティックシーン編集を開発する。
TexGS-VolVisは,様々なボリュームレンダリングシーンにおいて質的,定量的に評価する。
- 参考スコア(独自算出の注目度): 6.244684422598127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advancements in volume visualization (VolVis) focus on extracting insights from 3D volumetric data by generating visually compelling renderings that reveal complex internal structures. Existing VolVis approaches have explored non-photorealistic rendering techniques to enhance the clarity, expressiveness, and informativeness of visual communication. While effective, these methods often rely on complex predefined rules and are limited to transferring a single style, restricting their flexibility. To overcome these limitations, we advocate the representation of VolVis scenes using differentiable Gaussian primitives combined with pretrained large models to enable arbitrary style transfer and real-time rendering. However, conventional 3D Gaussian primitives tightly couple geometry and appearance, leading to suboptimal stylization results. To address this, we introduce TexGS-VolVis, a textured Gaussian splatting framework for VolVis. TexGS-VolVis employs 2D Gaussian primitives, extending each Gaussian with additional texture and shading attributes, resulting in higher-quality, geometry-consistent stylization and enhanced lighting control during inference. Despite these improvements, achieving flexible and controllable scene editing remains challenging. To further enhance stylization, we develop image- and text-driven non-photorealistic scene editing tailored for TexGS-VolVis and 2D-lift-3D segmentation to enable partial editing with fine-grained control. We evaluate TexGS-VolVis both qualitatively and quantitatively across various volume rendering scenes, demonstrating its superiority over existing methods in terms of efficiency, visual quality, and editing flexibility.
- Abstract(参考訳): ボリュームビジュアライゼーション(VolVis)の進歩は、複雑な内部構造を明らかにする視覚的に魅力的なレンダリングを生成することで、三次元ボリュームデータから洞察を抽出することに焦点を当てている。
既存のVolVisアプローチでは、視覚コミュニケーションの明確性、表現性、情報性を高めるために、非フォトリアリスティックレンダリング技術を模索している。
有効ではあるが、これらのメソッドは複雑な事前定義されたルールに依存し、単一のスタイルの転送に制限され、柔軟性が制限される。
これらの制約を克服するために、任意のスタイル転送とリアルタイムレンダリングを可能にするために、微分可能なガウスプリミティブと事前訓練された大型モデルを組み合わせたVolVisシーンの表現を提唱する。
しかし、従来の3Dガウスプリミティブは幾何と外観を密に結合し、最適以下のスタイリング結果をもたらす。
これを解決するために、VolVis用のテクスチャ化されたガウススプレイティングフレームワークであるTexGS-VolVisを紹介する。
TexGS-VolVisは2Dガウスプリミティブを採用し、各ガウスプリミティブをテクスチャとシェーディング特性で拡張し、高品質で幾何学的に一貫性のあるスタイル化と推論時の照明制御の強化を実現している。
これらの改善にもかかわらず、フレキシブルでコントロール可能なシーン編集を実現することは依然として困難である。
TexGS-VolVisと2D-lift-3Dセグメンテーションに適した画像およびテキスト駆動の非フォトリアリスティックシーン編集を開発し、微粒化制御による部分的編集を実現する。
我々はTexGS-VolVisを様々なボリュームレンダリングシーンで定性的かつ定量的に評価し、その効率性、視覚的品質、編集の柔軟性の点で既存の手法よりも優れていることを示す。
関連論文リスト
- Creating Your Editable 3D Photorealistic Avatar with Tetrahedron-constrained Gaussian Splatting [17.908135908777325]
編集過程を局所的な空間適応と現実的な外観学習に分離する枠組みを導入する。
このフレームワークは、四面体格子の制御可能な明示的構造と3次元ガウス格子の高精度レンダリング機能を組み合わせる。
定性的かつ定量的な実験は、フォトリアリスティックな3D編集可能なアバターの生成における我々のアプローチの有効性と優位性を示す。
論文 参考訳(メタデータ) (2025-04-29T03:56:36Z) - Visibility-Uncertainty-guided 3D Gaussian Inpainting via Scene Conceptional Learning [63.94919846010485]
3DGI)は、複数の入力ビューから補完的な視覚的・意味的手がかりを効果的に活用することが困難である。
本稿では,異なる入力ビュー間での3Dポイントの視認性不確実性を計測し,それらを用いて3DGIを誘導する手法を提案する。
ViSibility-uncerTainty-guided 3DGIとシーンコンセプトAl学習を統合し,新しい3DGIフレームワークであるVISTAを構築した。
論文 参考訳(メタデータ) (2025-04-23T06:21:11Z) - StyleMe3D: Stylization with Disentangled Priors by Multiple Encoders on 3D Gaussians [23.1385740508835]
StyleMe3Dは3D GSスタイルの転送のための総合的なフレームワークである。
マルチモーダルスタイルのコンディショニング、マルチレベルセマンティックアライメント、知覚的品質向上を統合している。
この作品は、フォトリアリスティックな3D GSと芸術的なスタイリング、ゲーム、バーチャルワールド、デジタルアートのアンロックを橋渡しする。
論文 参考訳(メタデータ) (2025-04-21T17:59:55Z) - Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - Reference-based Controllable Scene Stylization with Gaussian Splatting [30.321151430263946]
コンテンツアラインな参照画像に基づいて外観を編集する参照ベースシーンスタイリングは、新たな研究領域である。
参照型スタイリゼーションに3Dガウススティング(3DGS)を適用し,リアルタイムなスタイリゼーションを実現するReGSを提案する。
論文 参考訳(メタデータ) (2024-07-09T20:30:29Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [53.0225128090909]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - Texture-GS: Disentangling the Geometry and Texture for 3D Gaussian Splatting Editing [79.10630153776759]
3Dガウススプラッティングは画期的なアプローチとして登場し、高忠実度再構成とリアルタイムレンダリングの能力に注目が集まっている。
そこで我々は,テクスチャ-GSという新しいアプローチを提案し,その外観を3次元表面上にマッピングされた2次元テクスチャとして表現することで幾何学から切り離す。
提案手法は,高精細な外観の編集を容易にするだけでなく,コンシューマレベルのデバイス上でのリアルタイムレンダリングも実現している。
論文 参考訳(メタデータ) (2024-03-15T06:42:55Z) - GaussianStyle: Gaussian Head Avatar via StyleGAN [64.85782838199427]
本稿では,3DGSのボリューム強度とStyleGANの強力な暗黙表現を統合する新しいフレームワークを提案する。
提案手法は, 再現性, 新規なビュー合成, アニメーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-01T18:14:42Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。