論文の概要: Gaussian Billboards: Expressive 2D Gaussian Splatting with Textures
- arxiv url: http://arxiv.org/abs/2412.12734v1
- Date: Tue, 17 Dec 2024 09:57:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 17:09:38.640858
- Title: Gaussian Billboards: Expressive 2D Gaussian Splatting with Textures
- Title(参考訳): ガウスの看板: テクスチャ付き2次元ガウススプラッティング
- Authors: Sebastian Weiss, Derek Bradley,
- Abstract要約: 2DGS(2DGS)と従来のコンピュータグラフィックスの看板との類似点を強調した。
本研究では,2DGSのテクスチャを用いて空間的に異なる色を付加するために,2DGSの修正を提案する。
本研究では,シーン表現のシャープさと質を,質的,定量的な評価で改善できることを示す。
- 参考スコア(独自算出の注目度): 8.724367699416893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian Splatting has recently emerged as the go-to representation for reconstructing and rendering 3D scenes. The transition from 3D to 2D Gaussian primitives has further improved multi-view consistency and surface reconstruction accuracy. In this work we highlight the similarity between 2D Gaussian Splatting (2DGS) and billboards from traditional computer graphics. Both use flat semi-transparent 2D geometry that is positioned, oriented and scaled in 3D space. However 2DGS uses a solid color per splat and an opacity modulated by a Gaussian distribution, where billboards are more expressive, modulating the color with a uv-parameterized texture. We propose to unify these concepts by presenting Gaussian Billboards, a modification of 2DGS to add spatially-varying color achieved using per-splat texture interpolation. The result is a mixture of the two representations, which benefits from both the robust scene optimization power of 2DGS and the expressiveness of texture mapping. We show that our method can improve the sharpness and quality of the scene representation in a wide range of qualitative and quantitative evaluations compared to the original 2DGS implementation.
- Abstract(参考訳): Gaussian Splattingは3Dシーンの再構成とレンダリングのためのゴート表現として最近登場した。
3Dから2Dガウスプリミティブへの移行により、マルチビューの一貫性と表面再構成精度がさらに向上した。
本研究は,従来のコンピュータグラフィックスによる2次元ガウススプラッティング (2DGS) と看板との類似点を強調した。
どちらも平坦な半透明な2次元幾何学を用いており、3次元空間において位置決め、向き付け、スケール化されている。
しかし、2DGSは、スプラ毎の固体色とガウス分布によって変調される不透明度を使い、看板はより表現力が高く、uvパラメータ化されたテクスチャで色を変調する。
本稿では,2DGS を改良したガウスビルボードを提示し,空間的に異なる色を加えることで,これらの概念を統一することを提案する。
その結果、2DGSの堅牢なシーン最適化力とテクスチャマッピングの表現力の両面から得られる2つの表現の混合が得られた。
本研究では,従来の2DGS実装と比較して,シーン表現のシャープさと品質を質的,定量的に評価できることを示す。
関連論文リスト
- Joint Semantic and Rendering Enhancements in 3D Gaussian Modeling with Anisotropic Local Encoding [86.55824709875598]
本稿では,セマンティックとレンダリングの両方を相乗化する3次元セマンティックガウスモデリングのための統合拡張フレームワークを提案する。
従来の点雲形状符号化とは異なり、細粒度3次元形状を捉えるために異方性3次元ガウシアン・チェビシェフ記述子を導入する。
我々は、学習した形状パターンを継続的に更新するために、クロスシーンの知識伝達モジュールを使用し、より高速な収束と堅牢な表現を可能にします。
論文 参考訳(メタデータ) (2026-01-05T18:33:50Z) - Contour Information Aware 2D Gaussian Splatting for Image Representation [0.0]
本稿では,Contour Information-Aware 2D Gaussian Splattingフレームワークを提案する。
提案手法は,既存の2DGS法と比較して,オブジェクトエッジ周辺の再現性が高い。
論文 参考訳(メタデータ) (2025-12-29T07:24:36Z) - IBGS: Image-Based Gaussian Splatting [17.07390802338029]
3D Gaussian Splatting (3DGS) は、新しいビュー合成(NVS)の高速かつ高品質な方法として最近登場した。
我々は、高解像度のソース画像を細部やビュー固有の色モデリングに活用する効率的な画像ベースガウススプラッティングを提案する。
標準NVSベンチマーク実験では,ストレージのフットプリントを増大させることなく,ガウススプラッティング手法のレンダリング精度において,本手法が大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-11-18T11:03:27Z) - 2DGS-R: Revisiting the Normal Consistency Regularization in 2D Gaussian Splatting [21.933933778984954]
幾何学的精度を維持しつつレンダリング品質を向上させるために階層的トレーニングアプローチを用いた2DGS-Rを提案する。
従来の2DGSと比較して、我々の方法は1%のストレージと最小限のトレーニング時間しか必要としない。
これらの結果から,本手法は効率と性能のバランスを効果的に保ち,視覚的忠実度と幾何的再構成の精度が向上することが示唆された。
論文 参考訳(メタデータ) (2025-10-19T13:52:29Z) - GauSSmart: Enhanced 3D Reconstruction through 2D Foundation Models and Geometric Filtering [50.675710727721786]
2次元基礎モデルと3次元ガウススプラッティング再構成をブリッジするハイブリッド手法であるGauSSmartを提案する。
提案手法は,凸フィルタリングや意味的特徴監視など,確立した2次元コンピュータビジョン技術を統合している。
GauSSmartは既存のGaussian Splattingよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-10-16T03:38:26Z) - 2D Gaussian Splatting with Semantic Alignment for Image Inpainting [46.266955851252504]
2次元ガウススプラッティングに基づく最初の画像インペイントフレームワークを提案する。
グローバルなセマンティック一貫性のために、事前訓練されたDINOモデルの特徴を取り入れる。
本手法は,定量的指標と知覚的品質の両面での競合性能を実現する。
論文 参考訳(メタデータ) (2025-09-02T05:12:52Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Textured Gaussians for Enhanced 3D Scene Appearance Modeling [58.134905268540436]
3D Gaussian Splatting (3DGS)は最先端の3D再構成およびレンダリング技術として登場した。
本稿では,それぞれにα(A), RGB, RGBAテクスチャマップを付加した一般化されたガウスの外観表現を提案する。
類似または少ないガウス数を用いて,既存の手法に比べて画質が向上したことを示す。
論文 参考訳(メタデータ) (2024-11-27T18:59:59Z) - WaSt-3D: Wasserstein-2 Distance for Scene-to-Scene Stylization on 3D Gaussians [37.139479729087896]
We developed a new style transfer method for 3D scene called WaSt-3D。
トレーニングを必要とせずに、スタイルシーンからコンテンツシーンに詳細を忠実に転送する。
WaSt-3Dは、トレーニングを必要とせずに、さまざまなコンテンツやスタイルシーンに一貫して結果を提供する。
論文 参考訳(メタデータ) (2024-09-26T15:02:50Z) - GStex: Per-Primitive Texturing of 2D Gaussian Splatting for Decoupled Appearance and Geometry Modeling [11.91812502521729]
ガウススプラッティングは、ビュー合成とシーン再構成に優れた性能を示した。
各ガウス原始体は外観と幾何学の両方を符号化しているので、外見モデリングには多数のガウス原始体が必要である。
我々は,1つのガウス語でさえ外観の詳細を捉えられるように,パープリミティブな表現を採用することを提案する。
論文 参考訳(メタデータ) (2024-09-19T17:58:44Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - Semantic Gaussians: Open-Vocabulary Scene Understanding with 3D Gaussian Splatting [27.974762304763694]
セマンティック・ガウシアン(Semantic Gaussians)は,3次元ガウシアン・スプレイティングをベースとした,新しいオープン語彙シーン理解手法である。
既存の手法とは異なり、様々な2次元意味的特徴を3次元ガウスの新たな意味的構成要素にマッピングする多目的投影手法を設計する。
我々は,高速な推論のために,生の3Dガウスから意味成分を直接予測する3Dセマンティックネットワークを構築した。
論文 参考訳(メタデータ) (2024-03-22T21:28:19Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Texture-GS: Disentangling the Geometry and Texture for 3D Gaussian Splatting Editing [79.10630153776759]
3Dガウススプラッティングは画期的なアプローチとして登場し、高忠実度再構成とリアルタイムレンダリングの能力に注目が集まっている。
そこで我々は,テクスチャ-GSという新しいアプローチを提案し,その外観を3次元表面上にマッピングされた2次元テクスチャとして表現することで幾何学から切り離す。
提案手法は,高精細な外観の編集を容易にするだけでなく,コンシューマレベルのデバイス上でのリアルタイムレンダリングも実現している。
論文 参考訳(メタデータ) (2024-03-15T06:42:55Z) - Text-to-3D using Gaussian Splatting [18.163413810199234]
本稿では,最新の最先端表現であるガウススプラッティングをテキストから3D生成に適用する新しい手法であるGSGENを提案する。
GSGENは、高品質な3Dオブジェクトを生成し、ガウススティングの明示的な性質を活用することで既存の欠点に対処することを目的としている。
我々の手法は繊細な細部と正確な形状で3Dアセットを生成することができる。
論文 参考訳(メタデータ) (2023-09-28T16:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。