論文の概要: Learning to Build Shapes by Extrusion
- arxiv url: http://arxiv.org/abs/2601.22858v1
- Date: Fri, 30 Jan 2026 11:32:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.407715
- Title: Learning to Build Shapes by Extrusion
- Title(参考訳): 押出しによる形状形成の学習
- Authors: Thor Vestergaard Christiansen, Karran Pandey, Alba Reinders, Karan Singh, Morten Rieger Hannemose, J. Andreas Bærentzen,
- Abstract要約: 本稿では,顔押出のシーケンスとしてメッシュ構築を表現するテキストベース表現であるText Encoded Extrusion (TEE)を紹介する。
我々の表現は、再構成、新しい形状合成、および既存のメッシュへの新機能の追加を可能にすることを実証する。
- 参考スコア(独自算出の注目度): 15.522618411248176
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Text Encoded Extrusion (TEE), a text-based representation that expresses mesh construction as sequences of face extrusions rather than polygon lists, and a method for generating 3D meshes from TEE using a large language model (LLM). By learning extrusion sequences that assemble a mesh, similar to the way artists create meshes, our approach naturally supports arbitrary output face counts and produces manifold meshes by design, in contrast to recent transformer-based models. The learnt extrusion sequences can also be applied to existing meshes - enabling editing in addition to generation. To train our model, we decompose a library of quadrilateral meshes with non-self-intersecting face loops into constituent loops, which can be viewed as their building blocks, and finetune an LLM on the steps for reassembling the meshes by performing a sequence of extrusions. We demonstrate that our representation enables reconstruction, novel shape synthesis, and the addition of new features to existing meshes.
- Abstract(参考訳): テキストエンコード押出し(TEE)は、ポリゴンリストではなく、顔押出しのシーケンスとしてメッシュ構造を表現するテキストベース表現であり、大言語モデル(LLM)を用いてTEEから3Dメッシュを生成する方法である。
メッシュを組み立てる押出シーケンスを、アーティストがメッシュを作成する方法と同様に学習することにより、我々のアプローチは自然に任意の出力顔数をサポートし、最近のトランスフォーマーベースモデルとは対照的に、設計によって多様体メッシュを生成する。
学習したエクストルージョンシーケンスは、生成に加えて編集が可能な既存のメッシュにも適用することができる。
モデルをトレーニングするために,非自己交差型フェイスループを持つ四角形メッシュのライブラリを構成ループに分解し,それらを構成ブロックとみなし,一連の押出処理を行うことでメッシュを再組み立てするステップ上でLCMを微調整する。
我々の表現は、再構成、新しい形状合成、および既存のメッシュへの新機能の追加を可能にすることを実証する。
関連論文リスト
- StdGEN++: A Comprehensive System for Semantic-Decomposed 3D Character Generation [57.06461272772509]
StdGEN++は、多種多様な入力から高忠実で意味的に分解された3D文字を生成するための、新しく包括的なシステムである。
最先端の性能を達成し、幾何学的精度と意味的絡み合いにおいて既存の手法を著しく上回っている。
結果として、非破壊的な編集、物理学に準拠したアニメーション、視線追跡など、より進んだ下流の機能をアンロックする。
論文 参考訳(メタデータ) (2026-01-12T15:41:27Z) - MeshPad: Interactive Sketch-Conditioned Artist-Reminiscent Mesh Generation and Editing [64.84885028248395]
MeshPadは、スケッチ入力から3Dメッシュを生成するジェネレーティブなアプローチである。
我々は、メッシュの領域の"削除"に編集を分解し、新しいメッシュ幾何学の"追加"に続き、一貫した編集を可能にすることに重点を置いている。
提案手法は,メッシュ三角形の追加と削除のために,大規模なTransformerモデルを利用した三角形列に基づくメッシュ表現に基づいている。
論文 参考訳(メタデータ) (2025-03-03T11:27:44Z) - DECOLLAGE: 3D Detailization by Controllable, Localized, and Learned Geometry Enhancement [38.719572669042925]
エンドユーザーが機械学習を用いて3次元形状を洗練・詳細化できる3Dモデリング手法を提案する。
詳細をローカライズする能力は、新しいインタラクティブな創造性と応用を可能にする。
論文 参考訳(メタデータ) (2024-09-10T00:51:49Z) - Text-guided Controllable Mesh Refinement for Interactive 3D Modeling [48.226234898333]
テキストプロンプトによって案内される入力粗い3Dメッシュに幾何学的詳細を加える新しい手法を提案する。
まず、入力粗い幾何学と入力テキストプロンプトに基づいて、単一のビューRGB画像を生成する。
第2に、新しいマルチビュー正規生成アーキテクチャを用いて、正常画像の6つの異なるビューを共同で生成する。
第3に、すべてのビューに対してメッシュを最適化し、出力として微細で詳細な幾何学を生成する。
論文 参考訳(メタデータ) (2024-06-03T17:59:43Z) - DreamStone: Image as Stepping Stone for Text-Guided 3D Shape Generation [105.97545053660619]
テキスト誘導型3次元形状生成手法DreamStoneを提案する。
画像を使ってテキストと形状のギャップを埋め、ペアのテキストと3Dデータを必要とせずに3Dの形状を生成する。
我々のアプローチは汎用的で柔軟でスケーラブルであり、様々なSVRモデルと容易に統合でき、生成空間を拡大し、生成忠実性を向上させることができる。
論文 参考訳(メタデータ) (2023-03-24T03:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。