論文の概要: Dynamic 2D Gaussians: Geometrically accurate radiance fields for dynamic objects
- arxiv url: http://arxiv.org/abs/2409.14072v1
- Date: Sat, 21 Sep 2024 09:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 03:44:25.409482
- Title: Dynamic 2D Gaussians: Geometrically accurate radiance fields for dynamic objects
- Title(参考訳): 動的2次元ガウス:動的対象に対する幾何学的精度の高い放射場
- Authors: Shuai Zhang, Guanjun Wu, Xinggang Wang, Bin Feng, Wenyu Liu,
- Abstract要約: D-2DGS(Dynamic 2D Gaussian)と呼ばれるスパース画像入力から正確なメッシュを再構築できる新しい表現を提案する。
レンダリングされた高品質の画像からオブジェクトマスクを抽出し、描画された深度マップをマスキングすることにより、オブジェクトの高品質なダイナミックメッシュシーケンスを抽出することができる。
我々のD-2DGSはスパース入力から高品質メッシュを再構築するのに優れていることを示す実験である。
- 参考スコア(独自算出の注目度): 37.06217153721654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing objects and extracting high-quality surfaces play a vital role in the real world. Current 4D representations show the ability to render high-quality novel views for dynamic objects but cannot reconstruct high-quality meshes due to their implicit or geometrically inaccurate representations. In this paper, we propose a novel representation that can reconstruct accurate meshes from sparse image input, named Dynamic 2D Gaussians (D-2DGS). We adopt 2D Gaussians for basic geometry representation and use sparse-controlled points to capture 2D Gaussian's deformation. By extracting the object mask from the rendered high-quality image and masking the rendered depth map, a high-quality dynamic mesh sequence of the object can be extracted. Experiments demonstrate that our D-2DGS is outstanding in reconstructing high-quality meshes from sparse input. More demos and code are available at https://github.com/hustvl/Dynamic-2DGS.
- Abstract(参考訳): オブジェクトの再構築と高品質な表面の抽出は、現実世界において重要な役割を果たす。
現在の4D表現は、動的オブジェクトに対して高品質な新しいビューを描画する能力を示しているが、その暗黙的あるいは幾何学的に不正確な表現のために高品質なメッシュを再構築することはできない。
本稿では,ダイナミック2Dガウス (D-2DGS) と呼ばれる,スパース画像入力から正確なメッシュを再構築できる新しい表現を提案する。
基本幾何表現には2Dガウスアンを採用し、スパース制御された点を用いて2Dガウスアンの変形を捉える。
レンダリングされた高品質の画像からオブジェクトマスクを抽出し、描画された深度マップをマスキングすることにより、オブジェクトの高品質なダイナミックメッシュシーケンスを抽出することができる。
我々のD-2DGSはスパース入力から高品質メッシュを再構築するのに優れていることを示す実験である。
さらなるデモとコードはhttps://github.com/hustvl/Dynamic-2DGSで公開されている。
関連論文リスト
- MiraGe: Editable 2D Images using Gaussian Splatting [0.0]
Inlicit Neural Representation (INRs) は連続関数を通して離散データを近似し、2次元画像を符号化するのによく用いられる。
ミラー反射法を用いて3次元空間の2次元画像を知覚し,平面制御されたガウスアンを用いて正確な2次元画像編集を行う新しい手法であるMiraGeを提案する。
われわれのアプローチは、レンダリングの質を改善し、リアルな画像修正を可能にする。
論文 参考訳(メタデータ) (2024-10-02T13:10:57Z) - Space-time 2D Gaussian Splatting for Accurate Surface Reconstruction under Complex Dynamic Scenes [30.32214593068206]
複雑なシーンにおける動的内容と閉塞に対処する時空間2次元ガウス散乱法を提案する。
具体的には、動的シーンにおける幾何学的品質を改善するために、標準2次元ガウススプラットを学習し、これらの2次元ガウススプラットを変形させる。
また, 構成不透明化戦略を導入し, 閉塞領域の表面の回復をさらに抑制する。
実世界のスパースビュービデオデータセットとモノクロダイナミックデータセットの実験は、再構築が最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2024-09-27T15:50:36Z) - Learning Part-aware 3D Representations by Fusing 2D Gaussians and Superquadrics [16.446659867133977]
ポイントクラウド、メッシュ、NeRF、そして3Dガウスのような低レベルの3D表現は、一般的に3Dオブジェクトやシーンを表現するために使用される。
オブジェクトやシーンをセマンティックな部分に解析する部分認識型3D再構成の実現を目指している。
論文 参考訳(メタデータ) (2024-08-20T12:30:37Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - Magic123: One Image to High-Quality 3D Object Generation Using Both 2D
and 3D Diffusion Priors [104.79392615848109]
Magic123は、高品質でテクスチャ化された3Dメッシュのための、2段階の粗大なアプローチである。
最初の段階では、粗い幾何学を生成するために、神経放射場を最適化する。
第2段階では、視覚的に魅力的なテクスチャを持つ高分解能メッシュを生成するために、メモリ効率のよい微分可能なメッシュ表現を採用する。
論文 参考訳(メタデータ) (2023-06-30T17:59:08Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。