論文の概要: InnerGS: Internal Scenes Rendering via Factorized 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2508.13287v1
- Date: Mon, 18 Aug 2025 18:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.698988
- Title: InnerGS: Internal Scenes Rendering via Factorized 3D Gaussian Splatting
- Title(参考訳): インナーGS:3Dガウススティングによる内部シーンレンダリング
- Authors: Shuxin Liang, Yihan Xiao, Wenlu Tang,
- Abstract要約: 内部のシーンは、オブジェクトの内部の深い理解を必要とするアプリケーションにとって不可欠である。
本モデルでは,スライスしたスライスデータからスムーズで詳細な内部構造を効果的に再構築する。
我々のアプローチは、カメラのポーズの必要性を排除し、プラグアンドプレイであり、本質的にあらゆるデータモダリティと互換性がある。
- 参考スコア(独自算出の注目度): 0.7247572289408747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has recently gained popularity for efficient scene rendering by representing scenes as explicit sets of anisotropic 3D Gaussians. However, most existing work focuses primarily on modeling external surfaces. In this work, we target the reconstruction of internal scenes, which is crucial for applications that require a deep understanding of an object's interior. By directly modeling a continuous volumetric density through the inner 3D Gaussian distribution, our model effectively reconstructs smooth and detailed internal structures from sparse sliced data. Our approach eliminates the need for camera poses, is plug-and-play, and is inherently compatible with any data modalities. We provide cuda implementation at: https://github.com/Shuxin-Liang/InnerGS.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は最近、シーンを異方性3D Gaussianの明示的なセットとして表現することで、効率的なシーンレンダリングとして人気を集めている。
しかし、既存の研究のほとんどは外面のモデリングに重点を置いている。
本研究では,物体の内部の深い理解を必要とするアプリケーションにおいて重要な内部シーンの再構築を目標とする。
内部3次元ガウス分布を通して連続体積密度を直接モデル化することにより,スライスされたスライスデータからスムースで詳細な内部構造を効率的に再構築する。
我々のアプローチは、カメラのポーズの必要性を排除し、プラグアンドプレイであり、本質的にあらゆるデータモダリティと互換性がある。
https://github.com/Shuxin-Liang/InnerGS。
関連論文リスト
- FlexGS: Train Once, Deploy Everywhere with Many-in-One Flexible 3D Gaussian Splatting [57.97160965244424]
3Dガウススプラッティング(3DGS)は、3Dシーン表現や新しいビュー合成に様々な応用を可能にしている。
従来のアプローチでは、重要でないガウス人を刈り取ることに重点を置いており、3DGSを効果的に圧縮している。
本稿では3DGSの弾性推論手法を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:17:57Z) - GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - GaussianFormer: Scene as Gaussians for Vision-Based 3D Semantic Occupancy Prediction [70.65250036489128]
3Dのセマンティック占有予測は,周囲のシーンの3Dの微細な形状とセマンティックスを得ることを目的としている。
本稿では,3Dシーンを3Dセマンティック・ガウシアンで表現するオブジェクト中心表現を提案する。
GaussianFormerは17.8%から24.8%のメモリ消費しか持たない最先端のメソッドで同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-27T17:59:51Z) - Learning Segmented 3D Gaussians via Efficient Feature Unprojection for Zero-shot Neural Scene Segmentation [16.57158278095853]
ゼロショットニューラルシーンセグメンテーションはシーン理解に有効な方法である。
既存のモデル、特に効率的な3Dガウス法は、コンパクトなセグメンテーションの結果を生み出すのに苦労している。
セグメンテーションフィールドとしてFeature UnprojectionとFusionモジュールを提案する。
本モデルでは,ゼロショットセマンティックセグメンテーションタスクのベースラインを超越し,最良ベースラインよりも10%mIoU向上を図っている。
論文 参考訳(メタデータ) (2024-01-11T14:05:01Z) - Compact 3D Scene Representation via Self-Organizing Gaussian Grids [10.816451552362823]
3D Gaussian Splattingは、静的な3Dシーンをモデリングするための非常に有望なテクニックとして最近登場した。
本稿では3DGSのパラメータを局所的均一性を持つ2次元グリッドに整理したコンパクトなシーン表現を提案する。
本手法は,訓練時間の増加を伴わない複雑なシーンに対して,17倍から42倍の縮小係数を実現する。
論文 参考訳(メタデータ) (2023-12-19T20:18:29Z) - Gaussian Grouping: Segment and Edit Anything in 3D Scenes [65.49196142146292]
ガウシアン・グルーピング(ガウシアン・グルーピング)はガウシアン・スプラッティングを拡張して,オープンワールドの3Dシーンで何かを共同で再構築・分割する。
暗黙のNeRF表現と比較すると,グループ化された3次元ガウシアンは,高画質,微粒度,高効率で,あらゆるものを3次元で再構成,分割,編集することができる。
論文 参考訳(メタデータ) (2023-12-01T17:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。