論文の概要: PrimitiveAnything: Human-Crafted 3D Primitive Assembly Generation with Auto-Regressive Transformer
- arxiv url: http://arxiv.org/abs/2505.04622v1
- Date: Wed, 07 May 2025 17:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.185549
- Title: PrimitiveAnything: Human-Crafted 3D Primitive Assembly Generation with Auto-Regressive Transformer
- Title(参考訳): PrimitiveAnything: 自動回帰変換器を用いた人造3Dプリミティブアセンブリ生成
- Authors: Jingwen Ye, Yuze He, Yanning Zhou, Yiqin Zhu, Kaiwen Xiao, Yong-Jin Liu, Wei Yang, Xiao Han,
- Abstract要約: 形状原始抽象は人間の視覚認知において重要な役割を担い、コンピュータビジョンやグラフィックに広く応用されている。
プリミティブAnythingは、プリミティブアセンブリ生成タスクとして形状プリミティブ抽象を再構成する新しいフレームワークである。
- 参考スコア(独自算出の注目度): 34.35236841465313
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Shape primitive abstraction, which decomposes complex 3D shapes into simple geometric elements, plays a crucial role in human visual cognition and has broad applications in computer vision and graphics. While recent advances in 3D content generation have shown remarkable progress, existing primitive abstraction methods either rely on geometric optimization with limited semantic understanding or learn from small-scale, category-specific datasets, struggling to generalize across diverse shape categories. We present PrimitiveAnything, a novel framework that reformulates shape primitive abstraction as a primitive assembly generation task. PrimitiveAnything includes a shape-conditioned primitive transformer for auto-regressive generation and an ambiguity-free parameterization scheme to represent multiple types of primitives in a unified manner. The proposed framework directly learns the process of primitive assembly from large-scale human-crafted abstractions, enabling it to capture how humans decompose complex shapes into primitive elements. Through extensive experiments, we demonstrate that PrimitiveAnything can generate high-quality primitive assemblies that better align with human perception while maintaining geometric fidelity across diverse shape categories. It benefits various 3D applications and shows potential for enabling primitive-based user-generated content (UGC) in games. Project page: https://primitiveanything.github.io
- Abstract(参考訳): 複雑な3次元形状を単純な幾何学的要素に分解する形状プリミティブ抽象化は、人間の視覚認知において重要な役割を担い、コンピュータビジョンやグラフィックスに広く応用されている。
最近の3Dコンテンツ生成の進歩は目覚ましい進歩を見せているが、既存のプリミティブな抽象化手法は、セマンティック理解が限られている幾何学的最適化に頼るか、小規模でカテゴリ固有のデータセットから学習し、様々な形状のカテゴリを一般化するのに苦労している。
プリミティブAnythingは、プリミティブアセンブリ生成タスクとして形状プリミティブ抽象を再構成する新しいフレームワークである。
PrimitiveAnythingには、自動回帰生成のための形状条件付きプリミティブトランスフォーマーと、複数のプリミティブを統一的に表現するあいまいさのないパラメータ化スキームが含まれている。
提案するフレームワークは,大規模な人造抽象概念から原始的集合の過程を直接学習し,複雑な形状を原始的要素に分解する方法を捉える。
広範にわたる実験により,PrimitiveAnythingは,多様な形状カテゴリーの幾何学的忠実さを維持しつつ,人間の知覚によく適合する高品質なプリミティブアセンブリを生成できることが実証された。
様々な3Dアプリケーションにメリットがあり、ゲームでプリミティブベースのユーザ生成コンテンツ(UGC)を可能にする可能性を示している。
プロジェクトページ:https://primitiveanything.github.io
関連論文リスト
- DeFormer: Integrating Transformers with Deformable Models for 3D Shape
Abstraction from a Single Image [31.154786931081087]
本稿では,パラメータ化デフォルマブルモデルと統合された新しいバイチャネルトランスフォーマアーキテクチャを提案し,プリミティブのグローバルおよび局所的な変形を同時に推定する。
DeFormerは、最先端技術よりもより良い再構築精度を実現し、一貫したセマンティック対応で可視化し、解釈性を向上させる。
論文 参考訳(メタデータ) (2023-09-22T02:46:43Z) - Zero-shot point cloud segmentation by transferring geometric primitives [68.18710039217336]
ゼロショットポイントクラウドセマンティックセマンティックセマンティックセマンティクスについて検討し、そこではネットワークが見えないオブジェクトに対してトレーニングされ、見えないオブジェクトをセマンティクスできる。
本研究では,視覚的および視覚的カテゴリーのオブジェクトで共有される幾何学的プリミティブを学習し,言語と学習された幾何学的プリミティブとの微粒なアライメントを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-18T15:06:54Z) - 3DIAS: 3D Shape Reconstruction with Implicit Algebraic Surfaces [45.18497913809082]
原始的ベース表現は、主に単純な暗黙的プリミティブの集合によって3次元形状を近似する。
学習可能な係数がほとんどなく、より高度な幾何学的複素量を持つ原始曲面として、制約付き暗黙的代数曲面を提案する。
本手法は,教師なしの方法で3次元形状のセグメントを意味的に学習することができる。
論文 参考訳(メタデータ) (2021-08-19T12:34:28Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - Neural Star Domain as Primitive Representation [65.7313602687861]
本稿では、ニューラルスター領域(NSD)と呼ばれる新しい原始的表現を提案し、恒星領域の原始的形状を学習する。
NSDは、恒星領域の普遍的な近似器であり、擬似的かつ意味的なだけでなく、暗黙的かつ明示的な形状表現でもある。
提案手法は,高分解能メッシュサンプリングにおける画像再構成タスク,セマンティック機能,速度と品質において,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-21T19:05:16Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。