論文の概要: ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation
- arxiv url: http://arxiv.org/abs/2007.15837v1
- Date: Fri, 31 Jul 2020 04:15:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:38:50.423408
- Title: ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation
- Title(参考訳): ETH-XGaze:極端ヘッドポーズにおける注視推定のための大規模データセットと注視変動
- Authors: Xucong Zhang and Seonwook Park and Thabo Beeler and Derek Bradley and
Siyu Tang and Otmar Hilliges
- Abstract要約: ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
- 参考スコア(独自算出の注目度): 52.5465548207648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaze estimation is a fundamental task in many applications of computer
vision, human computer interaction and robotics. Many state-of-the-art methods
are trained and tested on custom datasets, making comparison across methods
challenging. Furthermore, existing gaze estimation datasets have limited head
pose and gaze variations, and the evaluations are conducted using different
protocols and metrics. In this paper, we propose a new gaze estimation dataset
called ETH-XGaze, consisting of over one million high-resolution images of
varying gaze under extreme head poses. We collect this dataset from 110
participants with a custom hardware setup including 18 digital SLR cameras and
adjustable illumination conditions, and a calibrated system to record ground
truth gaze targets. We show that our dataset can significantly improve the
robustness of gaze estimation methods across different head poses and gaze
angles. Additionally, we define a standardized experimental protocol and
evaluation metric on ETH-XGaze, to better unify gaze estimation research going
forward. The dataset and benchmark website are available at
https://ait.ethz.ch/projects/2020/ETH-XGaze
- Abstract(参考訳): 視線推定はコンピュータビジョン、人間のコンピュータインタラクション、ロボット工学の多くの応用における基本的なタスクである。
多くの最先端のメソッドはカスタムデータセット上でトレーニングされ、テストされるため、メソッド間の比較が困難になる。
さらに、既存の視線推定データセットは、頭部ポーズと視線変動が制限されており、異なるプロトコルとメトリクスを用いて評価を行う。
本稿では,頭部の極端な姿勢下での視線の異なる100万以上の高解像度画像からなる,eth-xgazeと呼ばれる新しい視線推定データセットを提案する。
このデータセットは,18台のデジタルslrカメラと調整可能な照明条件を含むカスタムハードウェアセットアップと,地上の真理観測目標を記録する校正システムを用いて,110名の参加者から収集した。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法の堅牢性を大幅に改善できることを示す。
さらに,ETH-XGazeの標準化された実験プロトコルと評価基準を定義し,今後の視線推定研究を統一する。
データセットとベンチマークのWebサイトはhttps://ait.ethz.ch/projects/2020/ETH-XGazeで公開されている。
関連論文リスト
- Merging Multiple Datasets for Improved Appearance-Based Gaze Estimation [10.682719521609743]
2段階のTransformer-based Gaze-Feature Fusion (TTGF) 法では、トランスフォーマーを使用して、両眼と顔の情報を別々にマージし、両眼にマージする。
提案手法は,各データセットにGaze Adaption Moduleを適用して,単一の共有推定器から推定した推定値を補正することにより,アノテーションの不一致を処理する。
論文 参考訳(メタデータ) (2024-09-02T02:51:40Z) - Semi-Synthetic Dataset Augmentation for Application-Specific Gaze
Estimation [0.3683202928838613]
顔の3次元メッシュを生成し、仮想カメラからのトレーニング画像をアプリケーションに関連する特定の位置と方向でレンダリングする方法を示す。
これにより、視線推定角誤差の平均47%が減少する。
論文 参考訳(メタデータ) (2023-10-27T20:27:22Z) - A Large Scale Homography Benchmark [52.55694707744518]
1DSfMデータセットから10万枚の画像から約1000個の平面が観測された3D, Pi3Dの平面の大規模データセットを示す。
また,Pi3Dを利用した大規模ホモグラフィ推定ベンチマークであるHEBを提案する。
論文 参考訳(メタデータ) (2023-02-20T14:18:09Z) - Towards Precision in Appearance-based Gaze Estimation in the Wild [3.4253416336476246]
我々は、より広い頭部ポーズと照明変動を有する大規模な視線推定データセット PARKS-Gaze を提案する。
提案されたデータセットはより困難で、既存の組み込みデータセットよりも、見えない参加者にモデルを一般化することができる。
論文 参考訳(メタデータ) (2023-02-05T10:09:35Z) - NeRF-Gaze: A Head-Eye Redirection Parametric Model for Gaze Estimation [37.977032771941715]
本稿では,ニューラルラジアンス場に基づく新しい頭部方向パラメトリックモデルを提案する。
我々のモデルは、顔と目を切り離して、別々のニューラルレンダリングを行うことができる。
顔、アイデンティティ、照明、視線方向の属性を別々に制御する目的を達成することができる。
論文 参考訳(メタデータ) (2022-12-30T13:52:28Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - Gaze Estimation with an Ensemble of Four Architectures [116.53389064096139]
我々は、4つの異なるネットワークアーキテクチャを採用する複数の視線推定器を訓練する。
最適な6つの推定器を選択し、それらの予測を線形結合でアンサンブルする。
ETH-XGazeコンペティションでは、ETH-XGazeテストセットで平均3.11円の角度誤差を達成した。
論文 参考訳(メタデータ) (2021-07-05T12:40:26Z) - 360-Degree Gaze Estimation in the Wild Using Multiple Zoom Scales [26.36068336169795]
焦点を絞った表情から視線を推定する能力を模倣するモデルを開発した。
このモデルは、クリアアイパッチを抽出する必要がない。
モデルを拡張して、360度視線推定の課題に対処する。
論文 参考訳(メタデータ) (2020-09-15T08:45:12Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Speak2Label: Using Domain Knowledge for Creating a Large Scale Driver
Gaze Zone Estimation Dataset [55.391532084304494]
ワイルド・データセットのドライバ・ゲイズには、夕方を含む1日の異なる時間に撮影された586の録音が含まれている。
ワイルド・データセットのドライバ・ゲイズには338人の被験者がおり、年齢は18-63歳である。
論文 参考訳(メタデータ) (2020-04-13T14:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。