論文の概要: MeshMamba: State Space Models for Articulated 3D Mesh Generation and Reconstruction
- arxiv url: http://arxiv.org/abs/2507.15212v1
- Date: Mon, 21 Jul 2025 03:24:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.240202
- Title: MeshMamba: State Space Models for Articulated 3D Mesh Generation and Reconstruction
- Title(参考訳): MeshMamba:Articulated 3D Meshの生成と再構築のための状態空間モデル
- Authors: Yusuke Yoshiyasu, Leyuan Sun, Ryusuke Sagawa,
- Abstract要約: ニューラルネットワークモデルであるMeshMambaを導入する。
MambaDiff3Dは、手のひらをつかんで、衣服に密集した3Dメッシュを生成することができる。
Mamba-HMRは、従来の非パラメトリックなヒューマンメッシュリカバリアプローチの機能を拡張している。
- 参考スコア(独自算出の注目度): 1.8843687952462742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce MeshMamba, a neural network model for learning 3D articulated mesh models by employing the recently proposed Mamba State Space Models (Mamba-SSMs). MeshMamba is efficient and scalable in handling a large number of input tokens, enabling the generation and reconstruction of body mesh models with more than 10,000 vertices, capturing clothing and hand geometries. The key to effectively learning MeshMamba is the serialization technique of mesh vertices into orderings that are easily processed by Mamba. This is achieved by sorting the vertices based on body part annotations or the 3D vertex locations of a template mesh, such that the ordering respects the structure of articulated shapes. Based on MeshMamba, we design 1) MambaDiff3D, a denoising diffusion model for generating 3D articulated meshes and 2) Mamba-HMR, a 3D human mesh recovery model that reconstructs a human body shape and pose from a single image. Experimental results showed that MambaDiff3D can generate dense 3D human meshes in clothes, with grasping hands, etc., and outperforms previous approaches in the 3D human shape generation task. Additionally, Mamba-HMR extends the capabilities of previous non-parametric human mesh recovery approaches, which were limited to handling body-only poses using around 500 vertex tokens, to the whole-body setting with face and hands, while achieving competitive performance in (near) real-time.
- Abstract(参考訳): 本稿では,最近提案されたMamba State Space Models(Mamba-SSMs)を用いて,3次元調音メッシュモデルを学習するためのニューラルネットワークモデルであるMeshMambaを紹介する。
MeshMambaは、多数の入力トークンを扱う上で効率的でスケーラブルであり、10,000以上の頂点を持つボディメッシュモデルの生成と再構築を可能にし、衣服とハンドジオメトリをキャプチャする。
MeshMambaを効果的に学習する鍵は、メッシュ頂点をMambaで簡単に処理できる順序付けにシリアライズするテクニックである。
これは、ボディ部分アノテーションやテンプレートメッシュの3次元頂点位置に基づいて頂点をソートすることで実現される。
MeshMambaをベースとして設計する
1)MambaDiff3Dは3次元メッシュを生成するための分極拡散モデルである。
2)Mamba-HMRは人体形状を再構築し,単一の画像からポーズする3次元メッシュ回復モデルである。
実験の結果,マンバディフ3Dは衣服や握り手等で密集した3次元メッシュを生成でき,従来の3次元人体形状生成タスクよりも優れていた。
さらに、Mamba-HMRは従来の非パラメトリックなヒューマンメッシュリカバリアプローチの機能を拡張し、約500の頂点トークンを使用したボディのみのポーズを、(ほぼ)リアルタイムに、顔と手による全身設定に限定した。
関連論文リスト
- MeshCraft: Exploring Efficient and Controllable Mesh Generation with Flow-based DiTs [79.45006864728893]
MeshCraftは、効率的かつ制御可能なメッシュ生成のためのフレームワークである。
連続的な空間拡散を用いて、離散的な三角形の面を生成する。
800面のメッシュを3.2秒で生成できる。
論文 参考訳(メタデータ) (2025-03-29T09:21:50Z) - MeshXL: Neural Coordinate Field for Generative 3D Foundation Models [51.1972329762843]
本稿では,現代の大規模言語モデルを用いた3次元メッシュ生成のプロセスに対処する,事前学習型自己回帰モデルの生成ファミリを提案する。
MeshXLは高品質な3Dメッシュを生成することができ、さまざまなダウンストリームアプリケーションの基盤モデルとしても機能する。
論文 参考訳(メタデータ) (2024-05-31T14:35:35Z) - PivotMesh: Generic 3D Mesh Generation via Pivot Vertices Guidance [66.40153183581894]
汎用的でスケーラブルなメッシュ生成フレームワークであるPivotMeshを紹介します。
PivotMeshは、ネイティブメッシュ生成を大規模データセットに拡張する最初の試みである。
PivotMeshは,様々なカテゴリにまたがって,コンパクトでシャープな3Dメッシュを生成することができることを示す。
論文 参考訳(メタデータ) (2024-05-27T07:13:13Z) - Gamba: Marry Gaussian Splatting with Mamba for single view 3D reconstruction [153.52406455209538]
Gambaは、単一のビューイメージからエンドツーエンドの3D再構成モデルである。
1つのNVIDIA A100 GPUで0.05秒以内に再構築が完了する。
論文 参考訳(メタデータ) (2024-03-27T17:40:14Z) - Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - End-to-End Human Pose and Mesh Reconstruction with Transformers [17.75480888764098]
MEsh TRansfOrmer(METRO)と呼ばれる新しい方法で、単一の画像から3D人間のポーズとメッシュ頂点を再構築します。
METROはSMPLのようなパラメトリックメッシュモデルに依存しないので、手などの他のオブジェクトにも容易に拡張できる。
FreiHANDデータセット上の既存の最先端のメソッドを上回る、野生のMETROから3Dハンド再構築の汎用性を示す。
論文 参考訳(メタデータ) (2020-12-17T17:17:29Z) - Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh
Recovery from a 2D Human Pose [70.23652933572647]
本稿では,人間のメッシュ頂点の3次元座標を直接推定するグラフ畳み込みニューラルネットワーク(GraphCNN)を提案する。
我々のPose2Meshは、様々なベンチマークデータセットにおいて、以前の3次元人間のポーズとメッシュ推定方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-20T16:01:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。