論文の概要: RTGaze: Real-Time 3D-Aware Gaze Redirection from a Single Image
- arxiv url: http://arxiv.org/abs/2511.11289v1
- Date: Fri, 14 Nov 2025 13:24:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.622214
- Title: RTGaze: Real-Time 3D-Aware Gaze Redirection from a Single Image
- Title(参考訳): RTGaze:1枚の画像からリアルタイム3D視線をリダイレクト
- Authors: Hengfei Wang, Zhongqun Zhang, Yihua Cheng, Hyung Jin Chang,
- Abstract要約: RTGazeはリアルタイムかつ高品質な視線リダイレクト方式である。
我々は、顔画像から視線制御可能な顔表現を学習し、視線リダイレクトのためのニューラルレンダリングにより、この表現をデコードする。
我々はRTGazeを質的かつ定量的に評価し、効率、リダイレクト精度、画像品質の最先端性能を実証した。
- 参考スコア(独自算出の注目度): 30.839568008275577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaze redirection methods aim to generate realistic human face images with controllable eye movement. However, recent methods often struggle with 3D consistency, efficiency, or quality, limiting their practical applications. In this work, we propose RTGaze, a real-time and high-quality gaze redirection method. Our approach learns a gaze-controllable facial representation from face images and gaze prompts, then decodes this representation via neural rendering for gaze redirection. Additionally, we distill face geometric priors from a pretrained 3D portrait generator to enhance generation quality. We evaluate RTGaze both qualitatively and quantitatively, demonstrating state-of-the-art performance in efficiency, redirection accuracy, and image quality across multiple datasets. Our system achieves real-time, 3D-aware gaze redirection with a feedforward network (~0.06 sec/image), making it 800x faster than the previous state-of-the-art 3D-aware methods.
- Abstract(参考訳): 視線リダイレクト法は、視線を制御可能なリアルな人間の顔画像を生成することを目的としている。
しかし、最近の手法は3次元の一貫性、効率性、品質に苦しむことが多く、実用的応用を制限している。
本研究では,リアルタイムかつ高品質な視線リダイレクト手法RTGazeを提案する。
提案手法では,顔画像から視線制御可能な顔表現を学習し,視線リダイレクトのためのニューラルレンダリングによってその表現を復号する。
さらに,事前に訓練した3次元ポートレートジェネレータから顔の幾何学的先行情報を抽出し,生成品質を向上させる。
我々はRTGazeを質的かつ定量的に評価し、複数のデータセットにまたがる効率、リダイレクト精度、画像品質の最先端性能を実証した。
本システムは,フィードフォワードネットワーク(約0.06 sec/image)によるリアルタイム3次元視線リダイレクトを実現し,従来の最先端3D認識手法よりも800倍高速である。
関連論文リスト
- G3FA: Geometry-guided GAN for Face Animation [14.488117084637631]
この制限に対処するために、顔アニメーション(G3FA)のための幾何学誘導型GANを導入する。
我々の新しいアプローチは、顔アニメーションモデルに2次元画像のみを用いて3次元情報を組み込むことを可能にした。
顔の再現モデルでは、動きのダイナミクスを捉えるために2次元の運動ワープを利用する。
論文 参考訳(メタデータ) (2024-08-23T13:13:24Z) - Wonder3D: Single Image to 3D using Cross-Domain Diffusion [105.16622018766236]
Wonder3Dは、単一視点画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である。
画像から3Dまでのタスクの品質,一貫性,効率性を総括的に改善するため,領域間拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-10-23T15:02:23Z) - GazeNeRF: 3D-Aware Gaze Redirection with Neural Radiance Fields [100.53114092627577]
既存の視線リダイレクト法は2次元画像上で動作し、3次元一貫した結果を生成するのに苦労する。
顔領域と眼球は3次元構造であり、協調しているが独立して動くという直感に基づいて構築する。
論文 参考訳(メタデータ) (2022-12-08T13:19:11Z) - GazeOnce: Real-Time Multi-Person Gaze Estimation [18.16091280655655]
外観に基づく視線推定は、単一の画像から3次元視線方向を予測することを目的としている。
近年の深層学習に基づくアプローチは優れた性能を示すが,複数対人視線をリアルタイムに出力することはできない。
画像中の複数の顔に対する視線方向を同時に予測できるGazeOnceを提案する。
論文 参考訳(メタデータ) (2022-04-20T14:21:47Z) - Head2Head++: Deep Facial Attributes Re-Targeting [6.230979482947681]
我々は,顔の3次元形状とGANを利用して,顔と頭部の再現作業のための新しいディープラーニングアーキテクチャを設計する。
駆動単眼動作から複雑な非剛性顔の動きを捉え,時間的に一貫した映像を合成する。
我々のシステムは、ほぼリアルタイムでエンドツーエンドの再現(18fps)を行う。
論文 参考訳(メタデータ) (2020-06-17T23:38:37Z) - DeepFaceFlow: In-the-wild Dense 3D Facial Motion Estimation [56.56575063461169]
DeepFaceFlowは、3D非剛体顔の流れを推定するための堅牢で高速で高精度なフレームワークである。
私たちのフレームワークは、2つの非常に大規模な顔ビデオデータセットでトレーニングされ、テストされました。
登録された画像に対して,60fpsで3次元フローマップを生成する。
論文 参考訳(メタデータ) (2020-05-14T23:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。