論文の概要: MeshArt: Generating Articulated Meshes with Structure-guided Transformers
- arxiv url: http://arxiv.org/abs/2412.11596v1
- Date: Mon, 16 Dec 2024 09:35:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:55:16.161742
- Title: MeshArt: Generating Articulated Meshes with Structure-guided Transformers
- Title(参考訳): MeshArt: 構造誘導トランスを用いた人工メッシュの生成
- Authors: Daoyi Gao, Yawar Siddiqui, Lei Li, Angela Dai,
- Abstract要約: MeshArtは階層的なトランスフォーマーベースのアプローチで、調音された3Dメッシュを生成する。
構造カバレッジは57.1%向上し,メッシュ生成FIDは209ポイント向上した。
- 参考スコア(独自算出の注目度): 30.402843919926802
- License:
- Abstract: Articulated 3D object generation is fundamental for creating realistic, functional, and interactable virtual assets which are not simply static. We introduce MeshArt, a hierarchical transformer-based approach to generate articulated 3D meshes with clean, compact geometry, reminiscent of human-crafted 3D models. We approach articulated mesh generation in a part-by-part fashion across two stages. First, we generate a high-level articulation-aware object structure; then, based on this structural information, we synthesize each part's mesh faces. Key to our approach is modeling both articulation structures and part meshes as sequences of quantized triangle embeddings, leading to a unified hierarchical framework with transformers for autoregressive generation. Object part structures are first generated as their bounding primitives and articulation modes; a second transformer, guided by these articulation structures, then generates each part's mesh triangles. To ensure coherency among generated parts, we introduce structure-guided conditioning that also incorporates local part mesh connectivity. MeshArt shows significant improvements over state of the art, with 57.1% improvement in structure coverage and a 209-point improvement in mesh generation FID.
- Abstract(参考訳): アーティキュレートされた3Dオブジェクト生成は、単に静的ではない現実的で機能的で対話可能な仮想アセットを作成するのに基本である。
クリーンでコンパクトな形状の3Dメッシュを生成するための階層型トランスフォーマーベースのアプローチであるMeshArtを導入する。
そこで我々は,2段階にわたるパート・バイ・パート方式のメッシュ生成にアプローチした。
まず,この構造情報に基づいて各部分のメッシュ面を合成する。
我々のアプローチの鍵となるのは、調音構造と部分メッシュの両方を量子化された三角形埋め込みの列としてモデル化することで、自己回帰生成のためのトランスフォーマを備えた階層的なフレームワークを実現することである。
対象部分構造は、まず境界プリミティブと調音モードとして生成され、次にこれらの調音構造によって導かれる第2の変圧器が各部分のメッシュ三角形を生成する。
生成した部分間のコヒーレンシーを確保するため,局所的な部分メッシュ接続を組み込んだ構造誘導条件を導入する。
MeshArtは最先端よりも大幅に改善され、構造カバレッジは57.1%改善され、メッシュ生成FIDは209ポイント改善された。
関連論文リスト
- GenUDC: High Quality 3D Mesh Generation with Unsigned Dual Contouring Representation [13.923644541595893]
3次元生成モデルは、複雑な構造と現実的な表面を持つ高品質なメッシュを生成する。
我々は、Unsigned Dual Contouring (UDC) をメッシュ表現として活用することにより、これらの課題に対処するGenUDCフレームワークを提案する。
さらに、GenUDCは2段階の粗大な生成プロセスを3Dメッシュ生成に採用している。
論文 参考訳(メタデータ) (2024-10-23T11:59:49Z) - PASTA: Controllable Part-Aware Shape Generation with Autoregressive Transformers [5.7181794813117754]
PASTAは、高品質な3D形状を生成する自動回帰トランスフォーマーアーキテクチャである。
我々のモデルは、既存のパートベースおよび非パートベース手法よりも現実的で多様な3D形状を生成する。
論文 参考訳(メタデータ) (2024-07-18T16:52:45Z) - Generating 3D House Wireframes with Semantics [11.408526398063712]
本稿では, 自己回帰モデルを用いて, セマンティックエンリッチメントを用いた3次元住宅の創出手法を提案する。
意味に基づくワイヤシーケンスを並べ替えることで,3次元ワイヤフレーム構造をシームレスに学習する。
論文 参考訳(メタデータ) (2024-07-17T02:33:34Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - MeshGPT: Generating Triangle Meshes with Decoder-Only Transformers [32.169007676811404]
MeshGPTは、アーティストが作ったメッシュに典型的なコンパクトさを反映した、三角形メッシュを生成するための新しいアプローチである。
近年の強力な大規模言語モデルの発展に触発されて,三角メッシュを三角形として自動回帰的に生成するシーケンスベースアプローチを採用した。
論文 参考訳(メタデータ) (2023-11-27T01:20:11Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Monocular 3D Object Reconstruction with GAN Inversion [122.96094885939146]
MeshInversionはテクスチャ化された3Dメッシュの再構築を改善するための新しいフレームワークである。
これは、3Dテクスチャメッシュ合成のために事前訓練された3D GANの生成前を利用する。
本フレームワークは,観察部と観察部の両方で一貫した形状とテクスチャを有する忠実な3次元再構成を実現する。
論文 参考訳(メタデータ) (2022-07-20T17:47:22Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - Deep Geometric Texture Synthesis [83.9404865744028]
幾何学的テクスチャを合成するための新しい枠組みを提案する。
単一の参照3Dモデルの局所的な近傍からテクスチャ統計を学習する。
我々のネットワークはメッシュ頂点を任意の方向に変位させ、幾何学的テクスチャの合成を可能にする。
論文 参考訳(メタデータ) (2020-06-30T19:36:38Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。