論文の概要: LSS3D: Learnable Spatial Shifting for Consistent and High-Quality 3D Generation from Single-Image
- arxiv url: http://arxiv.org/abs/2511.12202v1
- Date: Sat, 15 Nov 2025 13:14:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.66982
- Title: LSS3D: Learnable Spatial Shifting for Consistent and High-Quality 3D Generation from Single-Image
- Title(参考訳): LSS3D:単一画像からの一貫性と高品質な3D生成のための学習可能な空間シフト
- Authors: Zhuojiang Cai, Yiheng Zhang, Meitong Guo, Mingdao Wang, Yuwang Wang,
- Abstract要約: 我々は,多視点不整合と非正面入力ビューを扱うために,学習可能な空間シフトを用いた高品質な画像から3次元画像へのアプローチ LSS3D を提案する。
具体的には、各ビューに学習可能な空間シフトパラメータを割り当て、再構成メッシュでガイドされた空間的に一貫したターゲットに対して各ビューを調整する。
提案手法は, よりフレキシブルな入力視点における幾何学的, テクスチャ的評価指標の双方において, 導出結果を一貫して達成する。
- 参考スコア(独自算出の注目度): 12.683334603689502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, multi-view diffusion-based 3D generation methods have gained significant attention. However, these methods often suffer from shape and texture misalignment across generated multi-view images, leading to low-quality 3D generation results, such as incomplete geometric details and textural ghosting. Some methods are mainly optimized for the frontal perspective and exhibit poor robustness to oblique perspective inputs. In this paper, to tackle the above challenges, we propose a high-quality image-to-3D approach, named LSS3D, with learnable spatial shifting to explicitly and effectively handle the multiview inconsistencies and non-frontal input view. Specifically, we assign learnable spatial shifting parameters to each view, and adjust each view towards a spatially consistent target, guided by the reconstructed mesh, resulting in high-quality 3D generation with more complete geometric details and clean textures. Besides, we include the input view as an extra constraint for the optimization, further enhancing robustness to non-frontal input angles, especially for elevated viewpoint inputs. We also provide a comprehensive quantitative evaluation pipeline that can contribute to the community in performance comparisons. Extensive experiments demonstrate that our method consistently achieves leading results in both geometric and texture evaluation metrics across more flexible input viewpoints.
- Abstract(参考訳): 近年,多視点拡散に基づく3D生成手法が注目されている。
しかし、これらの手法は、生成した多視点画像の形状やテクスチャのずれに悩まされることが多く、不完全な幾何学的詳細やテクスチャゴーストなどの低品質な3D生成結果をもたらす。
いくつかの方法は、主に正面の視点に最適化されており、斜めの視点への入力に対する頑健さが低い。
本稿では,この課題に対処するために,多視点不整合と非正面入力の視点を明示的に,効果的に扱うための空間シフトを学習可能な空間シフトとして,LSS3Dという高品質な画像から3Dのアプローチを提案する。
具体的には、各ビューに学習可能な空間シフトパラメータを割り当て、再構成メッシュによって誘導される空間的に一貫したターゲットに対して各ビューを調整することにより、より完全な幾何学的詳細とクリーンテクスチャを備えた高品質な3D生成を実現する。
さらに、入力ビューを最適化のための余分な制約として含み、特に高次視点入力に対する非正面入力角度に対するロバスト性をさらに強化する。
また、パフォーマンス比較においてコミュニティに貢献できる包括的な定量的評価パイプラインも提供します。
より柔軟な入力視点における幾何学的, テクスチャ的評価指標の両面において, 本手法が一貫した結果が得られることを示す実験結果が得られた。
関連論文リスト
- Wonder3D++: Cross-domain Diffusion for High-fidelity 3D Generation from a Single Image [68.55613894952177]
単一ビュー画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である textbfWonder3D++ を導入する。
マルチビュー正規写像と対応するカラー画像を生成するクロスドメイン拡散モデルを提案する。
最後に,多視点2次元表現から高品質な表面を粗い方法でわずか3ドル程度で駆動するカスケード3次元メッシュ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-11-03T17:24:18Z) - F3D-Gaus: Feed-forward 3D-aware Generation on ImageNet with Cycle-Aggregative Gaussian Splatting [35.625593119642424]
本稿では,モノケプラーデータセットから3次元認識を一般化する問題に取り組む。
画素整列型ガウススプラッティングに基づく新しいフィードフォワードパイプラインを提案する。
また,学習した3次元表現において,クロスビューの一貫性を強制する自己教師付きサイクル集約的制約を導入する。
論文 参考訳(メタデータ) (2025-01-12T04:44:44Z) - Wonder3D: Single Image to 3D using Cross-Domain Diffusion [105.16622018766236]
Wonder3Dは、単一視点画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である。
画像から3Dまでのタスクの品質,一貫性,効率性を総括的に改善するため,領域間拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-10-23T15:02:23Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。