論文の概要: DualPrim: Compact 3D Reconstruction with Positive and Negative Primitives
- arxiv url: http://arxiv.org/abs/2603.16133v1
- Date: Tue, 17 Mar 2026 05:36:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.111535
- Title: DualPrim: Compact 3D Reconstruction with Positive and Negative Primitives
- Title(参考訳): DualPrim: ポジティブでネガティブなプリミティブによるコンパクトな3D再構成
- Authors: Xiaoxu Meng, Zhongmin Chen, Bo Yang, Weikai Chen, Weixiao Liu, Lin Gao,
- Abstract要約: 本稿では,コンパクトで構造化された3次元再構成フレームワークであるDualPrimを紹介する。
加法のみの暗黙法やプリミティブ法とは異なり、DualPrimは正および負のスーパークワッドリックを持つ形状を表す。
この加法-減算設計はコンパクト性や微分性を犠牲にすることなく表現力を増加させる。
- 参考スコア(独自算出の注目度): 20.240793226488027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural reconstructions often trade structure for fidelity, yielding dense and unstructured meshes with irregular topology and weak part boundaries that hinder editing, animation, and downstream asset reuse. We present DualPrim, a compact and structured 3D reconstruction framework. Unlike additive-only implicit or primitive methods, DualPrim represents shapes with positive and negative superquadrics: the former builds the bases while the latter carves local volumes through a differentiable operator, enabling topology-aware modeling of holes and concavities. This additive-subtractive design increases the representational power without sacrificing compactness or differentiability. We embed DualPrim in a volumetric differentiable renderer, enabling end-to-end learning from multi-view images and seamless mesh export via closed-form boolean difference. Empirically, DualPrim delivers state-of-the-art accuracy and produces compact, structured, and interpretable outputs that better satisfy downstream needs than additive-only alternatives.
- Abstract(参考訳): ニューラルな再構成は、しばしば忠実さのために構造を交換し、不規則なトポロジーと弱い部分境界を持つ密で非構造的なメッシュをもたらし、編集、アニメーション、下流の資産再利用を妨げる。
本稿では,コンパクトで構造化された3次元再構成フレームワークであるDualPrimを紹介する。
加法のみの暗黙的あるいは原始的な方法とは異なり、DualPrimは正と負のスーパークワッドリックを持つ形状を表しており、前者はベースを構築し、後者は微分可能な演算子を通して局所的な体積を彫り、穴や凹凸のトポロジー的モデリングを可能にする。
この加法-減算設計はコンパクト性や微分性を犠牲にすることなく表現力を増加させる。
ボリューム微分可能なレンダラーにDualPrimを組み込み、マルチビュー画像からエンドツーエンドの学習と、クローズドフォームのブール差によるシームレスなメッシュエクスポートを可能にします。
実証的には、DualPrimは最先端の精度を提供し、コンパクトで構造化され、解釈可能な出力を生成する。
関連論文リスト
- StdGEN++: A Comprehensive System for Semantic-Decomposed 3D Character Generation [57.06461272772509]
StdGEN++は、多種多様な入力から高忠実で意味的に分解された3D文字を生成するための、新しく包括的なシステムである。
最先端の性能を達成し、幾何学的精度と意味的絡み合いにおいて既存の手法を著しく上回っている。
結果として、非破壊的な編集、物理学に準拠したアニメーション、視線追跡など、より進んだ下流の機能をアンロックする。
論文 参考訳(メタデータ) (2026-01-12T15:41:27Z) - Light-SQ: Structure-aware Shape Abstraction with Superquadrics for Generated Meshes [60.92139345612904]
我々は、新しいスーパークワッドリックベースの最適化フレームワークLight-SQを提案する。
本稿では,構造対応ボリューム分解によるブロック再配置戦略を提案する。
実験によると、Light-SQはスーパークワッドリックで効率よく、高忠実で、編集可能な形状の抽象化を可能にする。
論文 参考訳(メタデータ) (2025-09-29T16:18:32Z) - LinPrim: Linear Primitives for Differentiable Volumetric Rendering [51.56484100374058]
線形プリミティブに基づく2つの新しいシーン表現を導入する。
我々はGPU上で効率的に動作する異なるオクタライザを提案する。
我々は最先端の手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2025-01-27T18:49:38Z) - GaussianBlock: Building Part-Aware Compositional and Editable 3D Scene by Primitives and Gaussians [14.683337059919692]
本稿では,意味的コヒーレントかつ非絡み合いのある表現を可能にする,GaussianBlockと呼ばれる新しい部分認識型合成再構成手法を提案する。
再構成されたシーンは、様々なベンチマークで絡み合っており、構成的でコンパクトであり、シームレスで、直接的で、正確な編集を可能にすることが証明されている。
論文 参考訳(メタデータ) (2024-10-02T13:26:28Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Self-Supervised Generative-Contrastive Learning of Multi-Modal Euclidean Input for 3D Shape Latent Representations: A Dynamic Switching Approach [53.376029341079054]
本稿では,3次元形状の潜在表現を学習するための,生成型とコントラスト型を組み合わせたニューラルアーキテクチャを提案する。
このアーキテクチャでは、2つのエンコーダブランチをボクセルグリッドと、同じ形状のマルチビューイメージに使用している。
論文 参考訳(メタデータ) (2023-01-11T18:14:24Z) - The Transitive Information Theory and its Application to Deep Generative
Models [0.0]
変分オートエンコーダ(VAE)は2つの反対方向に押される。
既存の方法では、圧縮と再構成の間のレート歪みのトレードオフに問題を絞り込む。
一般化のために学習した表現を再結合する機構とともに,非交叉表現の階層構造を学習するシステムを開発する。
論文 参考訳(メタデータ) (2022-03-09T22:35:02Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。