論文の概要: Improving Multi-View Reconstruction via Texture-Guided Gaussian-Mesh Joint Optimization
- arxiv url: http://arxiv.org/abs/2511.03950v1
- Date: Thu, 06 Nov 2025 01:05:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.256614
- Title: Improving Multi-View Reconstruction via Texture-Guided Gaussian-Mesh Joint Optimization
- Title(参考訳): テクスチャ誘導ガウス-メシュ共同最適化によるマルチビュー再構成の改善
- Authors: Zhejia Cai, Puhua Jiang, Shiwei Mao, Hongkun Cao, Ruqi Huang,
- Abstract要約: マルチビュー画像から現実世界のオブジェクトを再構成することは、3D編集、AR/VR、デジタルコンテンツ作成に不可欠である。
既存の手法では、幾何精度(Multi-View Stereo)またはフォトリアリスティックレンダリングが優先されている。
本稿では,シームレスなガウス-メッシュ共同最適化のための幾何と外観最適化の統一的処理を提案する。
- 参考スコア(独自算出の注目度): 11.82110312606284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing real-world objects from multi-view images is essential for applications in 3D editing, AR/VR, and digital content creation. Existing methods typically prioritize either geometric accuracy (Multi-View Stereo) or photorealistic rendering (Novel View Synthesis), often decoupling geometry and appearance optimization, which hinders downstream editing tasks. This paper advocates an unified treatment on geometry and appearance optimization for seamless Gaussian-mesh joint optimization. More specifically, we propose a novel framework that simultaneously optimizes mesh geometry (vertex positions and faces) and vertex colors via Gaussian-guided mesh differentiable rendering, leveraging photometric consistency from input images and geometric regularization from normal and depth maps. The obtained high-quality 3D reconstruction can be further exploit in down-stream editing tasks, such as relighting and shape deformation. The code will be publicly available upon acceptance.
- Abstract(参考訳): マルチビュー画像から現実世界のオブジェクトを再構成することは、3D編集、AR/VR、デジタルコンテンツ作成に不可欠である。
既存の手法は通常、幾何学的精度 (Multi-View Stereo) またはフォトリアリスティックレンダリング (Novel View Synthesis) を優先し、しばしば幾何学と外観の最適化を分離し、下流の編集作業を妨げている。
本稿では,シームレスなガウス-メッシュ共同最適化のための幾何と外観最適化の統一的処理を提案する。
より具体的には、ガウス誘導メッシュ微分レンダリングによるメッシュ幾何(頂点位置と面)と頂点色を同時に最適化し、入力画像からの光度整合性を活用し、正規および深度マップからの幾何正則化を行う新しいフレームワークを提案する。
得られた高品質な3D再構成は、リライティングや形状変形などの下流編集タスクにさらに活用することができる。
コードは受理時に公開される。
関連論文リスト
- UniGS: Unified Geometry-Aware Gaussian Splatting for Multimodal Rendering [10.560500427919647]
3D Splatting に基づく統一地図表現と識別可能な属性再構成である UniGS を提案する。
我々のフレームワークは、写真リアルなRGB画像、幾何学的に正確な深度マップ、一貫した表面正規化、セマンティックロジットを同時にレンダリングできるマルチモーダルビューアを統合している。
論文 参考訳(メタデータ) (2025-10-14T06:07:57Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - FlexiDreamer: Single Image-to-3D Generation with FlexiCubes [20.871847154995688]
FlexiDreamerは、マルチビュー生成イメージから高品質なメッシュを直接再構築する新しいフレームワークである。
提案手法では,1つの画像から3次元の下流タスクにおいて,約1分で高忠実度3Dメッシュを生成することができる。
論文 参考訳(メタデータ) (2024-04-01T08:20:18Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。