論文の概要: Single-View 3D Reconstruction via SO(2)-Equivariant Gaussian Sculpting Networks
- arxiv url: http://arxiv.org/abs/2409.07245v1
- Date: Wed, 11 Sep 2024 13:01:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 14:35:46.038392
- Title: Single-View 3D Reconstruction via SO(2)-Equivariant Gaussian Sculpting Networks
- Title(参考訳): SO(2)-Equivariant Gaussian Sculpting Networksによる一視点3D再構成
- Authors: Ruihan Xu, Anthony Opipari, Joshua Mah, Stanley Lewis, Haoran Zhang, Hanzhe Guo, Odest Chadwicke Jenkins,
- Abstract要約: 我々は,SO(2)-同変ガウス彫刻ネットワーク(GSNs)を,一視点画像観測によるSO(2)-同変3Dオブジェクト再構成のアプローチとして導入する。
GSNは入力として単一の観測を行い、観測対象の幾何学とテクスチャを記述するガウススプラット表現を生成する。
実験により、GSNは多視点レンダリング損失を用いて効率的に訓練でき、高い拡散に基づく再構成アルゴリズムを用いて、高品質で競争力があることが示された。
- 参考スコア(独自算出の注目度): 19.096958968369744
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper introduces SO(2)-Equivariant Gaussian Sculpting Networks (GSNs) as an approach for SO(2)-Equivariant 3D object reconstruction from single-view image observations. GSNs take a single observation as input to generate a Gaussian splat representation describing the observed object's geometry and texture. By using a shared feature extractor before decoding Gaussian colors, covariances, positions, and opacities, GSNs achieve extremely high throughput (>150FPS). Experiments demonstrate that GSNs can be trained efficiently using a multi-view rendering loss and are competitive, in quality, with expensive diffusion-based reconstruction algorithms. The GSN model is validated on multiple benchmark experiments. Moreover, we demonstrate the potential for GSNs to be used within a robotic manipulation pipeline for object-centric grasping.
- Abstract(参考訳): 本稿では,SO(2)-Equivariant Gaussian Sculpting Networks (GSNs) について,一視点画像観測によるSO(2)-Equivariant 3Dオブジェクト再構成のアプローチとして紹介する。
GSNは入力として単一の観測を行い、観測対象の幾何学とテクスチャを記述するガウススプラット表現を生成する。
ガウス色、共分散、位置、不透明度を復号する前に共有特徴抽出器を使用することで、GSNは極めて高いスループット(>150FPS)を達成する。
実験により、GSNは多視点レンダリング損失を用いて効率的に訓練でき、高い拡散に基づく再構成アルゴリズムを用いて、高品質で競争力があることが示された。
GSNモデルは、複数のベンチマーク実験で検証される。
さらに,物体中心の把握のために,ロボット操作パイプライン内でGSNを使用する可能性を示す。
関連論文リスト
- NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - GS2Pose: Two-stage 6D Object Pose Estimation Guided by Gaussian Splatting [4.465134753953128]
本稿では,GS2Pose と呼ばれる新しい物体の高精度でロバストな6次元ポーズ推定法を提案する。
GS2Poseは3次元ガウススプラッティングを導入することで,高品質CADモデルを必要とせずに再構成結果を利用することができる。
GS2Poseのコードは、間もなくGitHubでリリースされる。
論文 参考訳(メタデータ) (2024-11-06T10:07:46Z) - PixelGaussian: Generalizable 3D Gaussian Reconstruction from Arbitrary Views [116.10577967146762]
PixelGaussianは、任意の視点から一般化可能な3Dガウス再構成を学習するための効率的なフレームワークである。
提案手法は,様々な視点によく一般化した最先端性能を実現する。
論文 参考訳(メタデータ) (2024-10-24T17:59:58Z) - UniG: Modelling Unitary 3D Gaussians for View-consistent 3D Reconstruction [20.089890859122168]
ビュー一貫性を持つ3次元再構成と新しいビュー合成モデルUniGを提案する。
UniGはスパース画像から3Dガウスの高忠実度表現を生成する。
論文 参考訳(メタデータ) (2024-10-17T03:48:02Z) - GS-Net: Generalizable Plug-and-Play 3D Gaussian Splatting Module [19.97023389064118]
粗いSfM点雲からガウス楕円体を密度化する3DGSモジュールであるGS-Netを提案する。
実験により、GS-Netを3DGSに適用すると、従来の視点では2.08dB、新しい視点では1.86dBのPSNR改善が得られることが示された。
論文 参考訳(メタデータ) (2024-09-17T16:03:19Z) - ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - MVSGaussian: Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo [54.00987996368157]
MVSGaussianは、Multi-View Stereo(MVS)から導かれる新しい一般化可能な3次元ガウス表現手法である。
MVSGaussianは、シーンごとにより良い合成品質でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2024-05-20T17:59:30Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - GaMeS: Mesh-Based Adapting and Modification of Gaussian Splatting [11.791944275269266]
メッシュと同じようにガウス成分を修正可能なガウスメッシュスプラッティング(GaMeS)モデルを導入する。
また、メッシュ上の位置のみに基づいてガウススプレートを定義し、アニメーション中の位置、スケール、回転を自動的に調整する。
論文 参考訳(メタデータ) (2024-02-02T14:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。