論文の概要: PEGAsus: 3D Personalization of Geometry and Appearance
- arxiv url: http://arxiv.org/abs/2602.08198v1
- Date: Mon, 09 Feb 2026 01:41:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.023449
- Title: PEGAsus: 3D Personalization of Geometry and Appearance
- Title(参考訳): PEGAsus:幾何学と外観の3次元パーソナライズ
- Authors: Jingyu Hu, Bin Hu, Ka-Hei Hui, Haipeng Li, Zhengzhe Liu, Daniel Cohen-Or, Chi-Wing Fu,
- Abstract要約: PEGAsusは、幾何学と外観の両レベルで形状概念を学習することで、パーソナライズされた3次元形状を生成できる新しいフレームワークである。
我々は,3次元形状のパーソナライゼーションを,参照形状から再利用可能な,カテゴリに依存しない幾何学的特徴と外観的属性を抽出するものとして定式化する。
我々は、地域的な概念学習にアプローチを拡張し、文脈認識と文脈自由な損失を伴って柔軟な概念抽出を可能にします。
- 参考スコア(独自算出の注目度): 84.10611282310562
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present PEGAsus, a new framework capable of generating Personalized 3D shapes by learning shape concepts at both Geometry and Appearance levels. First, we formulate 3D shape personalization as extracting reusable, category-agnostic geometric and appearance attributes from reference shapes, and composing these attributes with text to generate novel shapes. Second, we design a progressive optimization strategy to learn shape concepts at both the geometry and appearance levels, decoupling the shape concept learning process. Third, we extend our approach to region-wise concept learning, enabling flexible concept extraction, with context-aware and context-free losses. Extensive experimental results show that PEGAsus is able to effectively extract attributes from a wide range of reference shapes and then flexibly compose these concepts with text to synthesize new shapes. This enables fine-grained control over shape generation and supports the creation of diverse, personalized results, even in challenging cross-category scenarios. Both quantitative and qualitative experiments demonstrate that our approach outperforms existing state-of-the-art solutions.
- Abstract(参考訳): 我々は,幾何学と外観の両レベルで形状概念を学習することにより,パーソナライズされた3次元形状を生成できる新しいフレームワークPEGAsusを提案する。
まず,3次元形状のパーソナライズを基準形状から再利用可能な幾何学的特徴と外観属性を抽出し,それらの属性をテキストで合成し,新しい形状を生成する。
第2に,形状と外観の両レベルで形状概念を学習し,形状概念学習プロセスを分離するプログレッシブ最適化戦略を設計する。
第三に、我々のアプローチを地域的な概念学習に拡張し、文脈認識と文脈自由な損失を伴う柔軟な概念抽出を可能にします。
大規模実験の結果,PEGAsusは幅広い参照形状から属性を効果的に抽出し,テキストで柔軟に構成し,新しい形状を合成できることが示唆された。
これにより、形状生成のきめ細かい制御が可能になり、さまざまなパーソナライズされた結果の作成を支援します。
定量的および定性的な実験は、我々のアプローチが既存の最先端ソリューションより優れていることを示している。
関連論文リスト
- Hierarchical Neural Semantic Representation for 3D Semantic Correspondence [72.8101601086805]
階層型ニューラルセマンティック表現(HNSR)を設計し,高次構造と多分解能局所幾何学的特徴を捉える。
第2に,グローバルなセマンティック特徴を用いた粗いセマンティック対応を確立する,プログレッシブなグローバル-ローカルマッチング戦略を設計する。
第3に,本フレームワークはトレーニングフリーで,様々なトレーニング済みの3D生成バックボーンと広範囲に互換性があり,多様な形状カテゴリにまたがる強力な一般化が示されている。
論文 参考訳(メタデータ) (2025-09-22T07:23:07Z) - WIR3D: Visually-Informed and Geometry-Aware 3D Shape Abstraction [13.645442589551354]
WIR3Dは、3Dで視覚的に意味のある曲線のスパースセットを通して3D形状を抽象化する技術である。
ベジエ曲線のパラメータを最適化し、それらが幾何学的特徴と健全な視覚的特徴の両方を忠実に表現する。
形状の広いデータセットに対して, 形状の抽象化を行う手法をうまく適用した。
論文 参考訳(メタデータ) (2025-05-07T21:28:05Z) - PRISM: Probabilistic Representation for Integrated Shape Modeling and Generation [79.46526296655776]
PRISMは、カテゴリー拡散モデルと統計的形状モデル(SSM)とガウス混合モデル(GMM)を統合した3次元形状生成の新しいアプローチである
本手法では,構成SSMを用いて部分レベルの幾何学的変動をキャプチャし,GMMを用いて連続空間における部分意味を表現する。
提案手法は,パートレベルの操作の品質と制御性の両方において,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-04-06T11:48:08Z) - Shape from Semantics: 3D Shape Generation from Multi-View Semantics [30.969299308083723]
既存の3D再構成手法では, 3次元画像, 3次元点雲, 形状輪郭, 単一意味論などのガイダンスを用いて3次元表面を復元する。
図形や外観が、異なる視点から見ると、与えられたテキストの意味と一致した3Dモデルを作成することを目的として、新しい3Dモデリングタスク「Shape from Semantics'」を提案する。
論文 参考訳(メタデータ) (2025-02-01T07:51:59Z) - EXIM: A Hybrid Explicit-Implicit Representation for Text-Guided 3D Shape
Generation [124.27302003578903]
本稿では,3次元形状を生成するための新しいテキスト誘導手法を提案する。
我々は,明示的表現と暗黙的表現の強みを組み合わせたハイブリッド3D表現,すなわちEXIMを活用する。
テキスト誘導型3次元形状を用いた室内シーンを一貫したスタイルで生成する手法の適用性を示した。
論文 参考訳(メタデータ) (2023-11-03T05:01:51Z) - DeFormer: Integrating Transformers with Deformable Models for 3D Shape
Abstraction from a Single Image [31.154786931081087]
本稿では,パラメータ化デフォルマブルモデルと統合された新しいバイチャネルトランスフォーマアーキテクチャを提案し,プリミティブのグローバルおよび局所的な変形を同時に推定する。
DeFormerは、最先端技術よりもより良い再構築精度を実現し、一貫したセマンティック対応で可視化し、解釈性を向上させる。
論文 参考訳(メタデータ) (2023-09-22T02:46:43Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。