論文の概要: TeSO: Representing and Compressing 3D Point Cloud Scenes with Textured Surfel Octree
- arxiv url: http://arxiv.org/abs/2508.07083v1
- Date: Sat, 09 Aug 2025 19:37:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.689048
- Title: TeSO: Representing and Compressing 3D Point Cloud Scenes with Textured Surfel Octree
- Title(参考訳): TeSO:テクスチュアサーフェルオクストリーによる3Dポイントクラウドシーンの表現と圧縮
- Authors: Yueyu Hu, Ran Gong, Tingyu Fan, Yao Wang,
- Abstract要約: 3Dビジュアルコンテンツストリーミングは、新しい3DテレプレゼンスとAR/VRアプリケーションのための重要な技術である。
ポイントクラウド、メッシュ、そして3Dガウスのような既存の3D表現は、それぞれレンダリング品質、表面定義、圧縮性に制限がある。
我々は,点雲から構築される新しい3次元表現であるTextured Surfel Octree (TeSO)を提示する。
- 参考スコア(独自算出の注目度): 10.435212618849544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D visual content streaming is a key technology for emerging 3D telepresence and AR/VR applications. One fundamental element underlying the technology is a versatile 3D representation that is capable of producing high-quality renders and can be efficiently compressed at the same time. Existing 3D representations like point clouds, meshes and 3D Gaussians each have limitations in terms of rendering quality, surface definition, and compressibility. In this paper, we present the Textured Surfel Octree (TeSO), a novel 3D representation that is built from point clouds but addresses the aforementioned limitations. It represents a 3D scene as cube-bounded surfels organized on an octree, where each surfel is further associated with a texture patch. By approximating a smooth surface with a large surfel at a coarser level of the octree, it reduces the number of primitives required to represent the 3D scene, and yet retains the high-frequency texture details through the texture map attached to each surfel. We further propose a compression scheme to encode the geometry and texture efficiently, leveraging the octree structure. The proposed textured surfel octree combined with the compression scheme achieves higher rendering quality at lower bit-rates compared to multiple point cloud and 3D Gaussian-based baselines.
- Abstract(参考訳): 3Dビジュアルコンテンツストリーミングは、新しい3DテレプレゼンスとAR/VRアプリケーションのための重要な技術である。
この技術の基礎となる1つの基本的な要素は、高品質なレンダリングを生成でき、同時に効率的に圧縮できる汎用的な3D表現である。
ポイントクラウド、メッシュ、そして3Dガウスのような既存の3D表現は、それぞれレンダリング品質、表面定義、圧縮性に制限がある。
本稿では,点雲から構築される新しい3次元表現であるTextured Surfel Octree (TeSO)について述べる。
これは3Dシーンをオクツリー上に構成された立方体結合型サーフとして表現し、各サーフはテクスチャパッチにさらに関連付けられている。
オクツリーの粗いレベルで大きなサーセルで滑らかな表面を近似することにより、3Dシーンを表現するのに必要なプリミティブの数を減らし、各サーセルに取り付けられたテクスチャマップを通して高頻度のテクスチャの詳細を保持する。
さらに、オクツリー構造を利用して、幾何学とテクスチャを効率的にエンコードする圧縮スキームを提案する。
提案手法と圧縮方式を組み合わせることで,マルチポイントクラウドや3Dガウスベースベースラインと比較して,低ビットレートでのレンダリング品質が向上する。
関連論文リスト
- SuperCarver: Texture-Consistent 3D Geometry Super-Resolution for High-Fidelity Surface Detail Generation [70.76810765911499]
粗いメッシュ上にテクスチャ一貫性のある表面の詳細を補うための3次元幾何学的超解像パイプラインであるSuperCarverを紹介する。
実験により、私たちのSuperCarverは実際のテクスチャの外観によって描写された現実的で表現力のある表面の詳細を生成することができることが示された。
論文 参考訳(メタデータ) (2025-03-12T14:38:45Z) - GaussianAnything: Interactive Point Cloud Flow Matching For 3D Object Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,単一画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - DreamMesh: Jointly Manipulating and Texturing Triangle Meshes for Text-to-3D Generation [149.77077125310805]
我々はDreamMeshを提案する。DreamMeshは、明確に定義された表面(三角形メッシュ)をピボットして高忠実な3Dモデルを生成する、新しいテキスト・ツー・3Dアーキテクチャである。
粗い段階では、メッシュはまずテキスト誘導ジャコビアンによって変形し、その後DreamMeshは2D拡散モデルを用いてメッシュをテクスチャ化する。
細かい段階では、DreamMeshはメッシュを共同で操作し、テクスチャマップを洗練し、高品質なトライアングルメッシュを高忠実なテクスチャ素材で実現する。
論文 参考訳(メタデータ) (2024-09-11T17:59:02Z) - Meta 3D Gen [57.313835190702484]
3DGenは、3Dアセットを作成でき、高速な忠実さと高品質な3D形状とテクスチャを1分以内で提供する。
3DGenは、現実世界のアプリケーションで3Dアセットのリライトに必要な物理ベースのレンダリング(PBR)をサポートする。
論文 参考訳(メタデータ) (2024-07-02T18:37:52Z) - GeoScaler: Geometry and Rendering-Aware Downsampling of 3D Mesh Textures [0.06990493129893112]
高解像度テクスチャマップは、3Dメッシュで現実世界のオブジェクトを正確に表現するために必要である。
GeoScalerは幾何学的手がかりを取り入れつつ、3Dメッシュのテクスチャマップをダウンサンプリングする方法である。
また,GeoScalerが生成したテクスチャは,従来のダウンサンプリング手法に比べて,画質のよいレンダリング画像を提供することを示した。
論文 参考訳(メタデータ) (2023-11-28T07:55:25Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Implicit Feature Networks for Texture Completion from Partial 3D Data [56.93289686162015]
我々はIF-Netsを人間と任意の物体の部分的テクスチャスキャンからテクスチャ補完に一般化する。
本モデルでは, 欠損したテクスチャ部品を, 完成した形状でインペイントすることに成功している。
論文 参考訳(メタデータ) (2020-09-20T15:48:17Z) - On Demand Solid Texture Synthesis Using Deep 3D Networks [3.1542695050861544]
本稿では,ディープラーニングフレームワークに基づくオンデマンドテクスチャ合成のための新しいアプローチについて述べる。
任意の大きさの固形テクスチャのコヒーレント部分を合成するために、生成ネットワークを訓練する。
合成されたボリュームは、少なくとも最先端のパッチベースのアプローチと同等の視覚的結果が得られる。
論文 参考訳(メタデータ) (2020-01-13T20:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。