論文の概要: PixARMesh: Autoregressive Mesh-Native Single-View Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2603.05888v1
- Date: Fri, 06 Mar 2026 04:14:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.075491
- Title: PixARMesh: Autoregressive Mesh-Native Single-View Scene Reconstruction
- Title(参考訳): PixARMesh: 自動回帰メッシュネイティブなシングルビューシーン再構築
- Authors: Xiang Zhang, Sohyun Yoo, Hongrui Wu, Chuan Li, Jianwen Xie, Zhuowen Tu,
- Abstract要約: PixARMeshは、単一のRGB画像から直接、完全な3D屋内シーンメッシュを自動再構成する手法である。
従来の方法とは異なり、PixARMeshは統一モデル内のオブジェクトレイアウトと幾何学を共同で予測し、一貫性とアーティスト対応のメッシュを生成する。
合成および実世界のデータセットの実験は、PixARMeshが最先端の再構築品質を達成することを示している。
- 参考スコア(独自算出の注目度): 33.67730782532647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce PixARMesh, a method to autoregressively reconstruct complete 3D indoor scene meshes directly from a single RGB image. Unlike prior methods that rely on implicit signed distance fields and post-hoc layout optimization, PixARMesh jointly predicts object layout and geometry within a unified model, producing coherent and artist-ready meshes in a single forward pass. Building on recent advances in mesh generative models, we augment a point-cloud encoder with pixel-aligned image features and global scene context via cross-attention, enabling accurate spatial reasoning from a single image. Scenes are generated autoregressively from a unified token stream containing context, pose, and mesh, yielding compact meshes with high-fidelity geometry. Experiments on synthetic and real-world datasets show that PixARMesh achieves state-of-the-art reconstruction quality while producing lightweight, high-quality meshes ready for downstream applications.
- Abstract(参考訳): PixARMeshは、単一のRGB画像から直接、完全な3D屋内シーンメッシュを自動再構成する手法である。
暗黙的な符号付き距離フィールドとポストホックレイアウトの最適化に依存する従来の方法とは異なり、PixARMeshは統一モデル内のオブジェクトレイアウトと幾何学を共同で予測し、1つの前方パスで一貫性とアーティスト対応のメッシュを生成する。
メッシュ生成モデルの最近の進歩に基づき、画素整列画像特徴とグローバルシーンコンテキストをクロスアテンションで拡張し、単一の画像から正確な空間推論を可能にする。
シーンは、コンテキスト、ポーズ、メッシュを含む統一トークンストリームから自己回帰的に生成され、高忠実度幾何学を備えたコンパクトメッシュが生成される。
合成および実世界のデータセットの実験は、PixARMeshが最先端の再構築品質を実現し、下流アプリケーションに適した軽量で高品質なメッシュを生成することを示している。
関連論文リスト
- MoGaFace: Momentum-Guided and Texture-Aware Gaussian Avatars for Consistent Facial Geometry [3.0373043721834163]
MoGaFaceは、顔の形状とテクスチャ特性を継続的に洗練する、3Dヘッドアバターモデリングフレームワークである。
MoGaFaceは高忠実な頭部アバター再構成を実現し、新規な合成品質を著しく向上させる。
論文 参考訳(メタデータ) (2025-08-02T06:25:51Z) - Aligned Novel View Image and Geometry Synthesis via Cross-modal Attention Instillation [62.87088388345378]
ワーピング・アンド・インペインティング手法を用いて,新しいビューイメージと幾何学生成の整合性を実現する拡散型フレームワークを提案する。
手法は、既製の幾何学予測器を利用して、参照画像から見る部分的な幾何学を予測する。
生成した画像と幾何の正確なアライメントを確保するために, クロスモーダルアテンション蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-13T16:19:00Z) - CAST: Component-Aligned 3D Scene Reconstruction from an RGB Image [44.8172828045897]
現在のメソッドはドメイン固有の制限や低品質のオブジェクト生成に悩まされることが多い。
本稿では,3次元シーンの復元と復元のための新しい手法であるCASTを提案する。
論文 参考訳(メタデータ) (2025-02-18T14:29:52Z) - SCube: Instant Large-Scale Scene Reconstruction using VoxSplats [55.383993296042526]
SCubeは画像の粗い集合から大規模3次元シーン(幾何学、外観、意味論)を再構成する新しい手法である。
提案手法は,高解像度のスパース・ボクセル・足場上に支持された3次元ガウスの組である,新しい表現VoxSplatを用いて再構成シーンを符号化する。
論文 参考訳(メタデータ) (2024-10-26T00:52:46Z) - Reconstructing Topology-Consistent Face Mesh by Volume Rendering from Multi-View Images [71.20113392204183]
産業用3Dフェイスアセット作成は通常、下流生産のために多視点画像からトポロジに一貫性のあるフェイスメッシュを再構築する。
NeRFは3次元再構成において、シーンを密度場と放射場として表現することで大きな利点を示した。
多視点画像からアーティストが作ったテンプレートフェイスメッシュの形状を最適化するために,明示的メッシュとニューラルボリュームレンダリングを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T15:25:50Z) - FlexiDreamer: Single Image-to-3D Generation with FlexiCubes [20.871847154995688]
FlexiDreamerは、マルチビュー生成イメージから高品質なメッシュを直接再構築する新しいフレームワークである。
提案手法では,1つの画像から3次元の下流タスクにおいて,約1分で高忠実度3Dメッシュを生成することができる。
論文 参考訳(メタデータ) (2024-04-01T08:20:18Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。