論文の概要: WarpGAN: Warping-Guided 3D GAN Inversion with Style-Based Novel View Inpainting
- arxiv url: http://arxiv.org/abs/2511.08178v1
- Date: Wed, 12 Nov 2025 01:44:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.681067
- Title: WarpGAN: Warping-Guided 3D GAN Inversion with Style-Based Novel View Inpainting
- Title(参考訳): WarpGAN:スタイリッシュな3D GANインバージョン
- Authors: Kaitao Huang, Yan Yan, Jing-Hao Xue, Hanzi Wang,
- Abstract要約: 3D GANインバージョンは、訓練済みの3D GANの潜在空間に単一の画像を投影し、単発のノベルビュー合成を実現する。
本稿では,3D GANインバージョンに画像インバージョンを組み込むためのワーピング・アンド・インペインティング手法を提案し,新しい3D GANインバージョン手法WarpGANを提案する。
- 参考スコア(独自算出の注目度): 68.77882703764142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D GAN inversion projects a single image into the latent space of a pre-trained 3D GAN to achieve single-shot novel view synthesis, which requires visible regions with high fidelity and occluded regions with realism and multi-view consistency. However, existing methods focus on the reconstruction of visible regions, while the generation of occluded regions relies only on the generative prior of 3D GAN. As a result, the generated occluded regions often exhibit poor quality due to the information loss caused by the low bit-rate latent code. To address this, we introduce the warping-and-inpainting strategy to incorporate image inpainting into 3D GAN inversion and propose a novel 3D GAN inversion method, WarpGAN. Specifically, we first employ a 3D GAN inversion encoder to project the single-view image into a latent code that serves as the input to 3D GAN. Then, we perform warping to a novel view using the depth map generated by 3D GAN. Finally, we develop a novel SVINet, which leverages the symmetry prior and multi-view image correspondence w.r.t. the same latent code to perform inpainting of occluded regions in the warped image. Quantitative and qualitative experiments demonstrate that our method consistently outperforms several state-of-the-art methods.
- Abstract(参考訳): 3D GANインバージョンは、事前訓練された3D GANの潜在空間に単一の画像を投影し、単一のショットの新規ビュー合成を実現する。
しかし、既存の手法は可視領域の再構築に重点を置いており、隠蔽領域の生成は3D GANの前の生成にのみ依存している。
その結果、生成した隠蔽領域は、低ビットレート遅延符号による情報損失により、品質が劣ることが多い。
そこで我々は,3D GANインバージョンに画像インバージョンを組み込むためのワーピング・アンド・インペイント方式を提案し,新しい3D GANインバージョン手法WarpGANを提案する。
具体的には、まず3D GANインバージョンエンコーダを用いて、単一ビュー画像を3D GANの入力として機能する潜在コードに投影する。
そして、3D GANにより生成された深度マップを用いて、新しいビューにワープを行う。
最後に,同じ潜伏符号の対称性と多視点画像対応を生かした新しいSVINetを開発し,歪んだ画像における隠蔽領域の塗装を行う。
定量的および定性的な実験により、我々の手法はいくつかの最先端手法より一貫して優れていることが示された。
関連論文リスト
- Wonder3D++: Cross-domain Diffusion for High-fidelity 3D Generation from a Single Image [68.55613894952177]
単一ビュー画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である textbfWonder3D++ を導入する。
マルチビュー正規写像と対応するカラー画像を生成するクロスドメイン拡散モデルを提案する。
最後に,多視点2次元表現から高品質な表面を粗い方法でわずか3ドル程度で駆動するカスケード3次元メッシュ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-11-03T17:24:18Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - 3D GAN Inversion with Facial Symmetry Prior [42.22071135018402]
3D GANとGANの反転法を関連付けて、実際の画像をジェネレータの潜伏空間に投影することは自然である。
顔の対称性を事前に導入することで3D GANのインバージョンを促進する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T11:57:45Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - 3D GAN Inversion with Pose Optimization [26.140281977885376]
本稿では,カメラ視点と潜時符号を同時に推論し,マルチビューで一貫したセマンティック画像編集を可能にする一般化可能な3D GANインバージョン手法を提案する。
画像の再構成と編集を定量的かつ質的に行い、さらに2D GANベースの編集と比較した。
論文 参考訳(メタデータ) (2022-10-13T19:06:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。