論文の概要: Hybrid-Domain Adaptative Representation Learning for Gaze Estimation
- arxiv url: http://arxiv.org/abs/2511.13222v1
- Date: Mon, 17 Nov 2025 10:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.130399
- Title: Hybrid-Domain Adaptative Representation Learning for Gaze Estimation
- Title(参考訳): 視線推定のためのハイブリッドドメイン適応表現学習
- Authors: Qida Tan, Hongyu Yang, Wenchao Du,
- Abstract要約: 本稿では,頑健な視線表現を学習するためのハイブリッドドメイン適応表現学習フレームワークを提案する。
高品質近眼画像から抽出した特徴をアライメントすることで、低品質の顔画像から視線関連表現を遠ざけることを提案する。
EyeDiap、MPIIFaceGaze、Gaze360データセットの実験は、我々のアプローチが最先端の精度を達成することを示す。
- 参考スコア(独自算出の注目度): 20.422491630669885
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Appearance-based gaze estimation, aiming to predict accurate 3D gaze direction from a single facial image, has made promising progress in recent years. However, most methods suffer significant performance degradation in cross-domain evaluation due to interference from gaze-irrelevant factors, such as expressions, wearables, and image quality. To alleviate this problem, we present a novel Hybrid-domain Adaptative Representation Learning (shorted by HARL) framework that exploits multi-source hybrid datasets to learn robust gaze representation. More specifically, we propose to disentangle gaze-relevant representation from low-quality facial images by aligning features extracted from high-quality near-eye images in an unsupervised domain-adaptation manner, which hardly requires any computational or inference costs. Additionally, we analyze the effect of head-pose and design a simple yet efficient sparse graph fusion module to explore the geometric constraint between gaze direction and head-pose, leading to a dense and robust gaze representation. Extensive experiments on EyeDiap, MPIIFaceGaze, and Gaze360 datasets demonstrate that our approach achieves state-of-the-art accuracy of $\textbf{5.02}^{\circ}$ and $\textbf{3.36}^{\circ}$, and $\textbf{9.26}^{\circ}$ respectively, and present competitive performances through cross-dataset evaluation. The code is available at https://github.com/da60266/HARL.
- Abstract(参考訳): 単一の顔画像から正確な3次元視線方向を予測することを目的とした視線推定は,近年,有望な進歩を遂げている。
しかし、ほとんどの手法は、表現、ウェアラブル、画像品質といった、視線に関係のない要因からの干渉により、クロスドメイン評価において顕著な性能劣化を被っている。
この問題を軽減するために,マルチソースハイブリッドデータセットを活用して堅牢な視線表現を学習する,新しいハイブリッドドメイン適応表現学習(HARL)フレームワークを提案する。
具体的には,高品質な近眼画像から抽出した特徴を教師なし領域適応方式で整列させることにより,低品質な顔画像から視線関連表現を分離することを提案する。
さらに,頭部配置の効果を分析し,視線方向と視線方向の幾何的制約を探索するために,簡易で効率的なスパースグラフ融合モジュールを設計し,密度が高く頑健な視線表現をもたらす。
EyeDiap, MPIIFaceGaze, Gaze360データセットの大規模な実験により、我々のアプローチは、それぞれ$\textbf{5.02}^{\circ}$と$\textbf{3.36}^{\circ}$、$\textbf{9.26}^{\circ}$の最先端精度を達成し、クロスデータセット評価による競合性能を示す。
コードはhttps://github.com/da60266/HARLで公開されている。
関連論文リスト
- OmniGaze: Reward-inspired Generalizable Gaze Estimation In The Wild [104.57404324262556]
現在の3次元視線推定法は、多様なデータ領域にまたがる一般化に苦慮している。
OmniGazeは3次元視線推定のための半教師付きフレームワークである。
OmniGazeは5つのデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-10-15T15:19:52Z) - Domain-Adaptive Full-Face Gaze Estimation via Novel-View-Synthesis and Feature Disentanglement [12.857137513211866]
本稿では、教師なしドメイン適応のためのトレーニングデータ合成と視線推定モデルからなる効果的なモデルトレーニングパイプラインを提案する。
提案したデータ合成は、単一画像の3D再構成を利用して、3次元の顔形状データセットを必要とせずに、ソース領域から頭部ポーズの範囲を広げる。
本稿では、視線関連特徴を分離し、背景アグリゲーション整合性損失を導入し、合成音源領域の特性を生かしたディエンタングリングオートエンコーダネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:15:03Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation [0.0]
本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
論文 参考訳(メタデータ) (2022-09-21T08:05:53Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Boosting Image-based Mutual Gaze Detection using Pseudo 3D Gaze [19.10872208787867]
相互視線検出は、人間の相互作用を理解する上で重要な役割を果たす。
本稿では,訓練期間中に補助的な3D視線推定タスクを用いて,性能向上のための簡易かつ効果的な手法を提案する。
相互の視線ラベルから推定される擬似3次元視線ラベルを用いて、3次元視線推定枝を訓練することにより、追加の表示コストなしで性能向上を実現する。
論文 参考訳(メタデータ) (2020-10-15T15:01:41Z) - 360-Degree Gaze Estimation in the Wild Using Multiple Zoom Scales [26.36068336169795]
焦点を絞った表情から視線を推定する能力を模倣するモデルを開発した。
このモデルは、クリアアイパッチを抽出する必要がない。
モデルを拡張して、360度視線推定の課題に対処する。
論文 参考訳(メタデータ) (2020-09-15T08:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。