論文の概要: You Only Need One Stage: Novel-View Synthesis From A Single Blind Face Image
- arxiv url: http://arxiv.org/abs/2603.01328v1
- Date: Sun, 01 Mar 2026 23:55:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.628935
- Title: You Only Need One Stage: Novel-View Synthesis From A Single Blind Face Image
- Title(参考訳): ひとつだけ必要なステージ:1枚の盲目の顔画像から新しいビューの合成
- Authors: Taoyue Wang, Xiang Zhang, Xiaotian Li, Huiyuan Yang, Lijun Yin,
- Abstract要約: 1つのブラインドフェイス画像から直接一貫したノベルビュー画像を生成するための新しいワンステージ手法であるNVB-Faceを提案する。
本手法は, 整合性と忠実性の両方において, 従来の2段階アプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 16.187684959630335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel one-stage method, NVB-Face, for generating consistent Novel-View images directly from a single Blind Face image. Existing approaches to novel-view synthesis for objects or faces typically require a high-resolution RGB image as input. When dealing with degraded images, the conventional pipeline follows a two-stage process: first restoring the image to high resolution, then synthesizing novel views from the restored result. However, this approach is highly dependent on the quality of the restored image, often leading to inaccuracies and inconsistencies in the final output. To address this limitation, we extract single-view features directly from the blind face image and introduce a feature manipulator that transforms these features into 3D-aware, multi-view latent representations. Leveraging the powerful generative capacity of a diffusion model, our framework synthesizes high-quality, consistent novel-view face images. Experimental results show that our method significantly outperforms traditional two-stage approaches in both consistency and fidelity.
- Abstract(参考訳): 1つのブラインドフェイス画像から直接一貫したノベルビュー画像を生成するための新しいワンステージ手法であるNVB-Faceを提案する。
既存のオブジェクトや顔の新規ビュー合成へのアプローチは、通常、入力として高解像度のRGBイメージを必要とする。
劣化した画像を扱う場合、従来のパイプラインは2段階のプロセスに従い、まず画像を高解像度に復元し、その後、復元された結果から新しいビューを合成する。
しかし、このアプローチは復元された画像の品質に大きく依存しており、しばしば最終的な出力の不正確さと矛盾をもたらす。
この制限に対処するため,視覚面画像から直接単一ビュー特徴を抽出し,これらの特徴を3D対応多視点潜在表現に変換する特徴マニピュレータを導入する。
拡散モデルの強力な生成能力を生かし,高品質で一貫した顔画像の合成を行う。
実験結果から,本手法は従来の2段階アプローチよりも,一貫性と忠実性の両方において有意に優れていた。
関連論文リスト
- Blur2Sharp: Human Novel Pose and View Synthesis with Generative Prior Refinement [6.91111219679588]
Blur2Sharpは、3D対応ニューラルレンダリングと拡散モデルを統合して、シャープで幾何学的に一貫した新しいビュー画像を生成する新しいフレームワークである。
まず、人間のNeRFモデルを用いて、ターゲットポーズのための幾何学的コヒーレントなマルチビューレンダリングを生成し、3次元構造ガイダンスを明示的に符号化する。
我々はさらに、階層的特徴融合により視覚的品質を向上し、パラメトリックSMPLモデルから抽出したテクスチャ、正常、セマンティック先行を取り入れ、グローバルコヒーレンスと局所的詳細精度を同時に改善する。
論文 参考訳(メタデータ) (2025-12-09T03:49:12Z) - TurboPortrait3D: Single-step diffusion-based fast portrait novel-view synthesis [1.238712117697886]
人間の肖像画の低遅延ノベルビュー合成法であるTurboPortrait3Dを紹介する。
提案手法は,既存の3次元画像生成モデルが視覚的アーティファクトの傾向にあることを示すものである。
合成多視点データの大規模なコーパスの事前学習を含む,新しい効果的なトレーニング戦略を導入する。
論文 参考訳(メタデータ) (2025-10-27T23:28:11Z) - FaceLift: Learning Generalizable Single Image 3D Face Reconstruction from Synthetic Heads [54.24070918942727]
1枚の画像から高画質の360度3Dヘッドを復元するための新しいフィードフォワードアプローチであるFaceLiftを提案する。
パイプラインはまずマルチビューの潜伏拡散モデルを用いて、1つの入力から一貫したサイドビューとバックビューを生成する。
FaceLiftは、アイデンティティ保存、ディテールリカバリ、レンダリング品質において、最先端の3D顔再構成方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-23T18:59:49Z) - VistaDream: Sampling multiview consistent images for single-view scene reconstruction [63.991582576387856]
VistaDreamは、単一のビューイメージから3Dシーンを再構築するフレームワークである。
近年の拡散モデルでは、単一ビューの入力画像から高品質のノベルビュー画像を生成することができる。
論文 参考訳(メタデータ) (2024-10-22T10:55:59Z) - MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - ReShader: View-Dependent Highlights for Single Image View-Synthesis [5.736642774848791]
本稿では,ビュー合成過程を画素再構成と再配置の2つの独立したタスクに分割することを提案する。
再構成の過程では,1枚の画像を入力とし,新しいカメラに基づいてシェーディングを調整する。
そして、この再構成画像を既存のビュー合成法の入力として使用し、画素を移動させ、最終的な新規なビュー画像を生成する。
論文 参考訳(メタデータ) (2023-09-19T15:23:52Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。