論文の概要: 3D Gaussian and Diffusion-Based Gaze Redirection
- arxiv url: http://arxiv.org/abs/2511.11231v1
- Date: Fri, 14 Nov 2025 12:32:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.582833
- Title: 3D Gaussian and Diffusion-Based Gaze Redirection
- Title(参考訳): 3次元ガウスと拡散に基づく迷路リダイレクト
- Authors: Abiram Panchalingam, Indu Bodala, Stuart Middleton,
- Abstract要約: DiT-Gazeは、3D視線リダイレクトモデルを強化するフレームワークである。
実験により、DiT-Gazeは知覚的品質とリダイレクト精度の両方において、新しい最先端を設定できることが示されている。
- 参考スコア(独自算出の注目度): 0.05097809301149341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-fidelity gaze redirection is critical for generating augmented data to improve the generalization of gaze estimators. 3D Gaussian Splatting (3DGS) models like GazeGaussian represent the state-of-the-art but can struggle with rendering subtle, continuous gaze shifts. In this paper, we propose DiT-Gaze, a framework that enhances 3D gaze redirection models using a novel combination of Diffusion Transformer (DiT), weak supervision across gaze angles, and an orthogonality constraint loss. DiT allows higher-fidelity image synthesis, while our weak supervision strategy using synthetically generated intermediate gaze angles provides a smooth manifold of gaze directions during training. The orthogonality constraint loss mathematically enforces the disentanglement of internal representations for gaze, head pose, and expression. Comprehensive experiments show that DiT-Gaze sets a new state-of-the-art in both perceptual quality and redirection accuracy, reducing the state-of-the-art gaze error by 4.1% to 6.353 degrees, providing a superior method for creating synthetic training data. Our code and models will be made available for the research community to benchmark against.
- Abstract(参考訳): 高忠実度視線リダイレクトは、視線推定器の一般化を改善するために、拡張データを生成するために重要である。
GazeGaussianのような3D Gaussian Splatting (3DGS)モデルは最先端のモデルだが、微妙で連続的な視線シフトのレンダリングに苦労する可能性がある。
本稿では,Diffusion Transformer (DiT) の新たな組み合わせによる3次元視線リダイレクトモデルの拡張,視角の監督の弱さ,直交性制約損失などのフレームワークであるDiT-Gazeを提案する。
DiTは高忠実度画像合成を可能にする一方、合成された中間視角を用いた弱監督戦略は、トレーニング中の視線方向の滑らかな多様体を提供する。
直交制約損失は、数学的には、視線、頭ポーズ、表現のための内部表現のアンタングルを数学的に強制する。
総合的な実験により、DiT-Gazeは知覚的品質とリダイレクト精度の両方で新しい最先端の技術を設定し、最先端の視線誤差を4.1%から6.353度に低減し、合成トレーニングデータを作成するための優れた方法を提供する。
私たちのコードとモデルは、研究コミュニティがベンチマークを行うために利用可能になります。
関連論文リスト
- OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - Diffusion-Guided Gaussian Splatting for Large-Scale Unconstrained 3D Reconstruction and Novel View Synthesis [22.767866875051013]
本稿では,現行手法の限界に対処する多視点拡散モデルを用いて,新しい3DGSフレームワークであるGS-Diffを提案する。
マルチビュー入力に条件付き擬似観測を生成することにより、制約の少ない3次元再構成問題をよく表されたものに変換する。
4つのベンチマークの実験では、GS-Diffは最先端のベースラインをかなりのマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2025-04-02T17:59:46Z) - Enhancing 3D Gaze Estimation in the Wild using Weak Supervision with Gaze Following Labels [10.827081942898506]
我々は,新しい自己学習弱弱視線推定フレームワーク(ST-WSGE)を紹介する。
画像とビデオのデータセットから静的および動的視線情報を同時に学習できるモダリティに依存しないアーキテクチャであるGaze Transformer (GaT)を提案する。
3次元映像データセットと2次元視線目標ラベルを追従タスクから組み合わせることで,本手法は以下の重要な貢献を達成できる。
論文 参考訳(メタデータ) (2025-02-27T16:35:25Z) - GazeGaussian: High-Fidelity Gaze Redirection with 3D Gaussian Splatting [15.509324745484141]
本稿では2ストリーム3DGSモデルを用いて顔領域と眼領域を別々に表現するGazeGaussianを提案する。
総合的な実験により、GazeGaussianは、ヘッドスピードのレンダリング、視線リダイレクト精度、複数のデータセットにわたる顔合成において、既存の手法よりも優れていることが示されている。
論文 参考訳(メタデータ) (2024-11-20T02:15:23Z) - Irregular Tensor Low-Rank Representation for Hyperspectral Image Representation [71.69331824668954]
スペクトル変動は、ハイパースペクトル画像(HSI)解析において共通の課題となる
低ランクテンソル表現は、HSIデータに固有の相関を利用して、堅牢な戦略として登場した。
本研究では,不規則な3次元立方体を効率的にモデル化するために,不規則なテンソルローランク表現のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-10-24T02:56:22Z) - Spec-Gaussian: Anisotropic View-Dependent Appearance for 3D Gaussian Splatting [55.71424195454963]
Spec-Gaussian は球面調和の代わりに異方性球面ガウス場を利用するアプローチである。
実験結果から,本手法はレンダリング品質の面で既存の手法を超越していることが示された。
この改良は、3D GSの適用性を高めて、特異面と異方面の複雑なシナリオを扱う。
論文 参考訳(メタデータ) (2024-02-24T17:22:15Z) - NeRF-Gaze: A Head-Eye Redirection Parametric Model for Gaze Estimation [37.977032771941715]
本稿では,ニューラルラジアンス場に基づく新しい頭部方向パラメトリックモデルを提案する。
我々のモデルは、顔と目を切り離して、別々のニューラルレンダリングを行うことができる。
顔、アイデンティティ、照明、視線方向の属性を別々に制御する目的を達成することができる。
論文 参考訳(メタデータ) (2022-12-30T13:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。