論文の概要: Towards Precision in Appearance-based Gaze Estimation in the Wild
- arxiv url: http://arxiv.org/abs/2302.02353v1
- Date: Sun, 5 Feb 2023 10:09:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:45:37.160814
- Title: Towards Precision in Appearance-based Gaze Estimation in the Wild
- Title(参考訳): 野生における外見に基づく視線推定の精度向上に向けて
- Authors: Murthy L.R.D., Abhishek Mukhopadhyay, Shambhavi Aggarwal, Ketan Anand,
Pradipta Biswas
- Abstract要約: 我々は、より広い頭部ポーズと照明変動を有する大規模な視線推定データセット PARKS-Gaze を提案する。
提案されたデータセットはより困難で、既存の組み込みデータセットよりも、見えない参加者にモデルを一般化することができる。
- 参考スコア(独自算出の注目度): 3.4253416336476246
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Appearance-based gaze estimation systems have shown great progress recently,
yet the performance of these techniques depend on the datasets used for
training. Most of the existing gaze estimation datasets setup in interactive
settings were recorded in laboratory conditions and those recorded in the wild
conditions display limited head pose and illumination variations. Further, we
observed little attention so far towards precision evaluations of existing gaze
estimation approaches. In this work, we present a large gaze estimation
dataset, PARKS-Gaze, with wider head pose and illumination variation and with
multiple samples for a single Point of Gaze (PoG). The dataset contains 974
minutes of data from 28 participants with a head pose range of 60 degrees in
both yaw and pitch directions. Our within-dataset and cross-dataset evaluations
and precision evaluations indicate that the proposed dataset is more
challenging and enable models to generalize on unseen participants better than
the existing in-the-wild datasets. The project page can be accessed here:
https://github.com/lrdmurthy/PARKS-Gaze
- Abstract(参考訳): 外観に基づく視線推定システムは近年大きく進歩しているが、これらの技術の性能はトレーニングに使用されるデータセットに依存する。
対話的な環境に設定された既存の視線推定データセットのほとんどが実験室で記録され、野生環境に記録されたものは限られた頭部ポーズと照明のバリエーションを示す。
さらに,既存の視線推定手法の精度評価にはほとんど注意が払われていない。
本研究では、より広い頭部ポーズと照明変動と1つの点(PoG)に対する複数のサンプルを持つ大規模な視線推定データセットPARKS-Gazeを提案する。
このデータセットは28人の被験者から、ヨーとピッチの両方向の60度の範囲で974分間のデータを含んでいる。
in-datasetとcross-datasetの評価と精度評価は、提案するデータセットがより難しいことを示し、既存のin-the-wildデータセットよりも、未発見の参加者を一般化するモデルを可能にする。
プロジェクトページはここでアクセスできる。 https://github.com/lrdmurthy/parks-gaze
関連論文リスト
- 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - 360-Degree Gaze Estimation in the Wild Using Multiple Zoom Scales [26.36068336169795]
焦点を絞った表情から視線を推定する能力を模倣するモデルを開発した。
このモデルは、クリアアイパッチを抽出する必要がない。
モデルを拡張して、360度視線推定の課題に対処する。
論文 参考訳(メタデータ) (2020-09-15T08:45:12Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Speak2Label: Using Domain Knowledge for Creating a Large Scale Driver
Gaze Zone Estimation Dataset [55.391532084304494]
ワイルド・データセットのドライバ・ゲイズには、夕方を含む1日の異なる時間に撮影された586の録音が含まれている。
ワイルド・データセットのドライバ・ゲイズには338人の被験者がおり、年齢は18-63歳である。
論文 参考訳(メタデータ) (2020-04-13T14:47:34Z) - Learning to Detect Head Movement in Unconstrained Remote Gaze Estimation
in the Wild [19.829721663742124]
本稿では,視線推定に異なるレベルの頭部表現をより堅牢に組み込むことができるエンドツーエンドの視線推定手法を提案する。
提案手法は,画像品質の低い実世界のシナリオ,照明の異なるシナリオ,直接目的情報を利用できないシナリオに一般化することができる。
論文 参考訳(メタデータ) (2020-04-07T22:38:49Z) - Towards High Performance Low Complexity Calibration in Appearance Based
Gaze Estimation [7.857571508499849]
RGB画像からの出現に基づく視線推定は、比較的制約のない視線追跡を提供する。
キャリブレーションデータにおいて,視線対象者数,視線対象者当たりの画像数,頭部位置数の影響を解析した。
1つの視線目標と1つの頭の位置しか使用せず、高品質な校正を達成するには十分であり、最先端の手法を6.3%以上上回っている。
論文 参考訳(メタデータ) (2020-01-25T09:30:06Z) - GraspNet: A Large-Scale Clustered and Densely Annotated Dataset for
Object Grasping [49.777649953381676]
我々は,統合評価システムを用いた大規模グリップポーズ検出データセットに貢献する。
データセットには87,040枚のRGBD画像と3億7000万枚以上のグリップポーズが含まれている。
論文 参考訳(メタデータ) (2019-12-31T18:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。