論文の概要: Scaling Mesh Generation via Compressive Tokenization
- arxiv url: http://arxiv.org/abs/2411.07025v1
- Date: Mon, 11 Nov 2024 14:30:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:07:59.800306
- Title: Scaling Mesh Generation via Compressive Tokenization
- Title(参考訳): 圧縮トークン化によるスケーリングメッシュ生成
- Authors: Haohan Weng, Zibo Zhao, Biwen Lei, Xianghui Yang, Jian Liu, Zeqiang Lai, Zhuo Chen, Yuhong Liu, Jie Jiang, Chunchao Guo, Tong Zhang, Shenghua Gao, C. L. Philip Chen,
- Abstract要約: 本稿では,Blocked and Patchified Tokenization (BPT) という,圧縮的かつ効果的なメッシュ表現を提案する。
BPTはブロックワイドインデックスとパッチアグリゲーションを用いてメッシュシーケンスを圧縮し、元のシーケンスと比較して長さを約75%削減する。
BPTを活用して、スケールしたメッシュデータに基づく基盤メッシュ生成モデルトレーニングを構築し、ポイントクラウドとイメージの柔軟な制御をサポートしています。
- 参考スコア(独自算出の注目度): 66.05639158028343
- License:
- Abstract: We propose a compressive yet effective mesh representation, Blocked and Patchified Tokenization (BPT), facilitating the generation of meshes exceeding 8k faces. BPT compresses mesh sequences by employing block-wise indexing and patch aggregation, reducing their length by approximately 75\% compared to the original sequences. This compression milestone unlocks the potential to utilize mesh data with significantly more faces, thereby enhancing detail richness and improving generation robustness. Empowered with the BPT, we have built a foundation mesh generative model training on scaled mesh data to support flexible control for point clouds and images. Our model demonstrates the capability to generate meshes with intricate details and accurate topology, achieving SoTA performance on mesh generation and reaching the level for direct product usage.
- Abstract(参考訳): 本稿では,8k面を越えるメッシュの生成を容易にする圧縮的かつ効果的なメッシュ表現,Blocked and Patchified Tokenization (BPT)を提案する。
BPTはブロックワイドインデックスとパッチアグリゲーションを用いてメッシュシーケンスを圧縮し、元のシーケンスと比較して長さを約75%削減する。
この圧縮マイルストーンにより、メッシュデータをはるかに多くの顔で活用することが可能になるため、ディテールの豊かさが向上し、生成の堅牢性も向上する。
BPTを活用して、スケールしたメッシュデータに基づく基盤メッシュ生成モデルトレーニングを構築し、ポイントクラウドとイメージの柔軟な制御をサポートしています。
我々のモデルは、複雑な詳細と正確なトポロジでメッシュを生成する能力を示し、メッシュ生成におけるSoTAのパフォーマンスを達成し、製品を直接使用するためのレベルに達する。
関連論文リスト
- SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - MeshAnything V2: Artist-Created Mesh Generation With Adjacent Mesh Tokenization [65.15226276553891]
MeshAnything V2はArtist-Created Meshを作成するために設計された高度なメッシュ生成モデルである。
MeshAnything V2の背後にある重要なイノベーションは、新しいAdjacent Mesh Tokenization(AMT)メソッドです。
論文 参考訳(メタデータ) (2024-08-05T15:33:45Z) - PivotMesh: Generic 3D Mesh Generation via Pivot Vertices Guidance [66.40153183581894]
汎用的でスケーラブルなメッシュ生成フレームワークであるPivotMeshを紹介します。
PivotMeshは、ネイティブメッシュ生成を大規模データセットに拡張する最初の試みである。
PivotMeshは,様々なカテゴリにまたがって,コンパクトでシャープな3Dメッシュを生成することができることを示す。
論文 参考訳(メタデータ) (2024-05-27T07:13:13Z) - MeshGPT: Generating Triangle Meshes with Decoder-Only Transformers [32.169007676811404]
MeshGPTは、アーティストが作ったメッシュに典型的なコンパクトさを反映した、三角形メッシュを生成するための新しいアプローチである。
近年の強力な大規模言語モデルの発展に触発されて,三角メッシュを三角形として自動回帰的に生成するシーケンスベースアプローチを採用した。
論文 参考訳(メタデータ) (2023-11-27T01:20:11Z) - Controllable Mesh Generation Through Sparse Latent Point Diffusion
Models [105.83595545314334]
メッシュ生成のための新しいスパース潜在点拡散モデルを設計する。
私たちの重要な洞察は、ポイントクラウドをメッシュの中間表現と見なし、代わりにポイントクラウドの分布をモデル化することです。
提案したスパース潜在点拡散モデルにより,生成品質と制御性において優れた性能が得られる。
論文 参考訳(メタデータ) (2023-03-14T14:25:29Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - Deep Deformation Detail Synthesis for Thin Shell Models [47.442883859643004]
物理ベースの布アニメーションでは、高価な計算リソースと巨大な労働調整のコストで豊富な折り畳みと詳細なしわが達成されます。
我々は,低分解能メッシュから詳細なメッシュへのマッピングを学ぶために,時間的および空間的に整合可能な変形表現(ts-acap)と変形変換ネットワークを開発した。
提案手法は, 物理シミュレーションより1035倍高速で, 既存の手法よりも高精度な合成能力を有する, 様々なフレームレートで, 信頼性の高いリアルなアニメーションを作成できる。
論文 参考訳(メタデータ) (2021-02-23T08:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。