論文の概要: 2D Triangle Splatting for Direct Differentiable Mesh Training
- arxiv url: http://arxiv.org/abs/2506.18575v2
- Date: Thu, 26 Jun 2025 06:46:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 13:31:57.729591
- Title: 2D Triangle Splatting for Direct Differentiable Mesh Training
- Title(参考訳): 直接微分可能なメッシュトレーニングのための2次元三角形平滑化
- Authors: Kaifeng Sheng, Zheng Zhou, Yingliang Peng, Qianwei Wang,
- Abstract要約: 2DTS(2D Triangle Splatting)は、3次元ガウス原始体を2次元三角形のフェーレットに置き換える新しい方法である。
三角形プリミティブにコンパクト性パラメータを組み込むことで、光現実性メッシュの直接訓練を可能にする。
提案手法は,既存のメッシュ再構成手法と比較して,視覚的品質の優れた再構成メッシュを生成する。
- 参考スコア(独自算出の注目度): 4.161453036693641
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable rendering with 3D Gaussian primitives has emerged as a powerful method for reconstructing high-fidelity 3D scenes from multi-view images. While it offers improvements over NeRF-based methods, this representation still encounters challenges with rendering speed and advanced rendering effects, such as relighting and shadow rendering, compared to mesh-based models. In this paper, we propose 2D Triangle Splatting (2DTS), a novel method that replaces 3D Gaussian primitives with 2D triangle facelets. This representation naturally forms a discrete mesh-like structure while retaining the benefits of continuous volumetric modeling. By incorporating a compactness parameter into the triangle primitives, we enable direct training of photorealistic meshes. Our experimental results demonstrate that our triangle-based method, in its vanilla version (without compactness tuning), achieves higher fidelity compared to state-of-the-art Gaussian-based methods. Furthermore, our approach produces reconstructed meshes with superior visual quality compared to existing mesh reconstruction methods. Please visit our project page at https://gaoderender.github.io/triangle-splatting.
- Abstract(参考訳): 多視点画像から高忠実度3Dシーンを再構成する強力な手法として、3Dガウスプリミティブを用いた微分レンダリングが登場している。
NeRFベースの手法よりも改善されているが、この表現は、メッシュベースのモデルと比較して、レンダリング速度やライティングやシャドウレンダリングといった高度なレンダリング効果に関する課題に直面している。
本稿では,3次元ガウスプリミティブを2次元三角形フェーレットに置き換える新しい手法である2DTSを提案する。
この表現は、連続体積モデリングの利点を維持しながら、自然に離散メッシュのような構造を形成する。
三角形プリミティブにコンパクト性パラメータを組み込むことで、光現実性メッシュの直接訓練を可能にする。
実験結果から,我々の三角法は(コンパクト性チューニングを伴わない)バニラ法では,最先端のガウス法と比較して高い忠実性が得られることが示された。
さらに,既存のメッシュ再構成手法と比較して,視覚的品質の優れた再構成メッシュを生成する。
プロジェクトページはhttps://gaoderender.github.io/triangle-splatting.comでご覧ください。
関連論文リスト
- HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - DreamMesh4D: Video-to-4D Generation with Sparse-Controlled Gaussian-Mesh Hybrid Representation [10.250715657201363]
本稿では,メッシュ表現と幾何スキン技術を組み合わせた新しいフレームワークDreamMesh4Dを紹介し,モノクロビデオから高品質な4Dオブジェクトを生成する。
我々の手法は現代のグラフィックパイプラインと互換性があり、3Dゲームや映画産業におけるその可能性を示している。
論文 参考訳(メタデータ) (2024-10-09T10:41:08Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。