論文の概要: Dynamic 2D Gaussians: Geometrically Accurate Radiance Fields for Dynamic Objects
- arxiv url: http://arxiv.org/abs/2409.14072v2
- Date: Tue, 05 Aug 2025 15:42:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.493609
- Title: Dynamic 2D Gaussians: Geometrically Accurate Radiance Fields for Dynamic Objects
- Title(参考訳): 動的2次元ガウス:動的対象に対する幾何学的精度の高い放射場
- Authors: Shuai Zhang, Guanjun Wu, Zhoufeng Xie, Xinggang Wang, Bin Feng, Wenyu Liu,
- Abstract要約: D-2DGS(Dynamic 2D Gaussian)と呼ばれるスパース画像入力から正確なメッシュを再構築できる新しい表現を提案する。
レンダリングされた高画質画像からオブジェクトマスクを抽出し、描画された深度マップをマスキングすることにより、再構築時に発生する傾向のあるフローターを除去する。
我々のD-2DGSはスパース入力から詳細でスムーズな高品質メッシュを再構築するのに優れていることを示す実験である。
- 参考スコア(独自算出の注目度): 34.9769895763167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing objects and extracting high-quality surfaces play a vital role in the real world. Current 4D representations show the ability to render high-quality novel views for dynamic objects, but cannot reconstruct high-quality meshes due to their implicit or geometrically inaccurate representations. In this paper, we propose a novel representation that can reconstruct accurate meshes from sparse image input, named Dynamic 2D Gaussians (D-2DGS). We adopt 2D Gaussians for basic geometry representation and use sparse-controlled points to capture the 2D Gaussian's deformation. By extracting the object mask from the rendered high-quality image and masking the rendered depth map, we remove floaters that are prone to occur during reconstruction and can extract high-quality dynamic mesh sequences of dynamic objects. Experiments demonstrate that our D-2DGS is outstanding in reconstructing detailed and smooth high-quality meshes from sparse inputs. The code is available at https://github.com/hustvl/Dynamic-2DGS.
- Abstract(参考訳): オブジェクトの再構築と高品質な表面の抽出は、現実世界において重要な役割を果たす。
現在の4D表現は、動的オブジェクトに対して高品質な新しいビューを描画する能力を示しているが、その暗黙的あるいは幾何学的に不正確な表現のために高品質なメッシュを再構築することはできない。
本稿では,ダイナミック2Dガウス (D-2DGS) と呼ばれる,スパース画像入力から正確なメッシュを再構築できる新しい表現を提案する。
基本幾何表現には2Dガウスアンを採用し、スパース制御された点を用いて2Dガウスアンの変形を捉える。
レンダリングされた高画質画像からオブジェクトマスクを抽出し、描画された深度マップをマスキングすることにより、再構築時に発生する傾向のあるフローターを除去し、動的オブジェクトの高品質な動的メッシュシーケンスを抽出できる。
我々のD-2DGSはスパース入力から詳細でスムーズな高品質メッシュを再構築するのに優れていることを示す実験である。
コードはhttps://github.com/hustvl/Dynamic-2DGSで公開されている。
関連論文リスト
- TRAN-D: 2D Gaussian Splatting-based Sparse-view Transparent Object Depth Reconstruction via Physics Simulation for Scene Update [14.360210515795904]
TRAN-Dは透明物体に対する新しい2次元ガウス平板を用いた深度再構成法である。
我々は、ガウス人を不明瞭な地域に配置するオブジェクト認識損失でアーティファクトを緩和する。
物理に基づくシミュレーションを組み込んで、わずか数秒で復元を洗練します。
論文 参考訳(メタデータ) (2025-07-15T08:02:37Z) - GS-2DGS: Geometrically Supervised 2DGS for Reflective Object Reconstruction [51.99776072246151]
2次元ガウス散乱(2DGS)に基づく反射物体に対するGS-2DGSと呼ばれる新しい再構成法を提案する。
合成および実データを用いた実験結果から,本手法はガウスの手法を再現・啓蒙の面で著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-06-16T05:40:16Z) - Sparse2DGS: Sparse-View Surface Reconstruction using 2D Gaussian Splatting with Dense Point Cloud [9.784526657786342]
本稿では,Sparse2DGSと呼ばれる新しい3次元再構成手法を提案する。
Sparse2DGSはステレオ画像の基本モデルであるDUSt3RとCOLMAP MVSを採用し、高精度で密度の高い3D点雲を生成する。
Sparse2DGSは3つの画像を用いて物体の3次元形状を正確に再構成できることを示す。
論文 参考訳(メタデータ) (2025-05-26T11:38:26Z) - High-fidelity 3D Object Generation from Single Image with RGBN-Volume Gaussian Reconstruction Model [38.13429047918231]
本稿では,3次元のボクセル表現が明示的な3次元幾何情報を含む,新しいハイブリッドなVoxel-Gaussian表現を提案する。
我々の3Dボクセル表現は、2D画像から推定できるRGB特徴と表面正規特徴を整列する融合モジュールによって得られる。
論文 参考訳(メタデータ) (2025-04-02T08:58:34Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - MiraGe: Editable 2D Images using Gaussian Splatting [0.0]
Inlicit Neural Representation (INRs) は連続関数を通して離散データを近似し、2次元画像を符号化するのによく用いられる。
ミラー反射法を用いて3次元空間の2次元画像を知覚し,平面制御されたガウスアンを用いて正確な2次元画像編集を行う新しい手法であるMiraGeを提案する。
われわれのアプローチは、レンダリングの質を改善し、リアルな画像修正を可能にする。
論文 参考訳(メタデータ) (2024-10-02T13:10:57Z) - Space-time 2D Gaussian Splatting for Accurate Surface Reconstruction under Complex Dynamic Scenes [30.32214593068206]
複雑なシーンにおける動的内容と閉塞に対処する時空間2次元ガウス散乱法を提案する。
具体的には、動的シーンにおける幾何学的品質を改善するために、標準2次元ガウススプラットを学習し、これらの2次元ガウススプラットを変形させる。
また, 構成不透明化戦略を導入し, 閉塞領域の表面の回復をさらに抑制する。
実世界のスパースビュービデオデータセットとモノクロダイナミックデータセットの実験は、再構築が最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2024-09-27T15:50:36Z) - Learning Part-aware 3D Representations by Fusing 2D Gaussians and Superquadrics [16.446659867133977]
ポイントクラウド、メッシュ、NeRF、そして3Dガウスのような低レベルの3D表現は、一般的に3Dオブジェクトやシーンを表現するために使用される。
オブジェクトやシーンをセマンティックな部分に解析する部分認識型3D再構成の実現を目指している。
論文 参考訳(メタデータ) (2024-08-20T12:30:37Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - Magic123: One Image to High-Quality 3D Object Generation Using Both 2D
and 3D Diffusion Priors [104.79392615848109]
Magic123は、高品質でテクスチャ化された3Dメッシュのための、2段階の粗大なアプローチである。
最初の段階では、粗い幾何学を生成するために、神経放射場を最適化する。
第2段階では、視覚的に魅力的なテクスチャを持つ高分解能メッシュを生成するために、メモリ効率のよい微分可能なメッシュ表現を採用する。
論文 参考訳(メタデータ) (2023-06-30T17:59:08Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。