論文の概要: Appearance-based Gaze Estimation With Deep Learning: A Review and
Benchmark
- arxiv url: http://arxiv.org/abs/2104.12668v1
- Date: Mon, 26 Apr 2021 15:53:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:31:49.626017
- Title: Appearance-based Gaze Estimation With Deep Learning: A Review and
Benchmark
- Title(参考訳): ディープラーニングによる外見に基づく視線推定: レビューとベンチマーク
- Authors: Yihua Cheng, Haofei Wang, Yiwei Bao and Feng Lu
- Abstract要約: 本稿では,深層学習による外観に基づく視線推定手法の総合的検討について述べる。
様々な視線推定手法の性能を正確に比較するため,全公用視線推定データセットを特徴付ける。
本論文は,深層学習に基づく視線推定手法開発への参考となるだけでなく,将来の視線推定研究の指針となる。
- 参考スコア(独自算出の注目度): 10.745148379100796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaze estimation reveals where a person is looking. It is an important clue
for understanding human intention. The recent development of deep learning has
revolutionized many computer vision tasks, the appearance-based gaze estimation
is no exception. However, it lacks a guideline for designing deep learning
algorithms for gaze estimation tasks. In this paper, we present a comprehensive
review of the appearance-based gaze estimation methods with deep learning. We
summarize the processing pipeline and discuss these methods from four
perspectives: deep feature extraction, deep neural network architecture design,
personal calibration as well as device and platform. Since the data
pre-processing and post-processing methods are crucial for gaze estimation, we
also survey face/eye detection method, data rectification method, 2D/3D gaze
conversion method, and gaze origin conversion method. To fairly compare the
performance of various gaze estimation approaches, we characterize all the
publicly available gaze estimation datasets and collect the code of typical
gaze estimation algorithms. We implement these codes and set up a benchmark of
converting the results of different methods into the same evaluation metrics.
This paper not only serves as a reference to develop deep learning-based gaze
estimation methods but also a guideline for future gaze estimation research.
Implemented methods and data processing codes are available at
http://phi-ai.org/GazeHub.
- Abstract(参考訳): 視線推定は、人が見ている場所を明らかにする。
それは人間の意図を理解するための重要な手がかりである。
近年のディープラーニングの発展は多くのコンピュータビジョンタスクに革命をもたらしたが、外観に基づく視線推定は例外ではない。
しかし、視線推定タスクのためのディープラーニングアルゴリズムを設計するためのガイドラインが欠けている。
本稿では,ディープラーニングを用いた外見に基づく視線推定手法の総合的なレビューを行う。
本稿では,処理パイプラインを要約し,これらの手法について,深い特徴抽出,ディープニューラルネットワークアーキテクチャ設計,パーソナルキャリブレーション,デバイスとプラットフォームという4つの視点から考察する。
データ前処理と後処理は視線推定に不可欠であるため,顔・目の検出方法,データ修正方法,2D/3D視線変換法,視線原点変換法も検討する。
様々な視線推定手法の性能を十分に比較するために,公開されている視線推定データセットをすべて特徴付け,典型的な視線推定アルゴリズムのコードを収集する。
これらのコードを実装し、異なるメソッドの結果を同じ評価指標に変換するベンチマークを設定します。
本論文は,深層学習に基づく視線推定手法開発への参考となるだけでなく,将来の視線推定研究の指針となる。
実装されたメソッドとデータ処理コードはhttp://phi-ai.org/GazeHub.orgで公開されている。
関連論文リスト
- Guided Depth Map Super-resolution: A Survey [88.54731860957804]
誘導深度マップ超解像(GDSR)は、高分解能(HR)深度マップを低分解能(LR)観測から2枚のHRカラー画像の助けを借りて再構成することを目的としている。
近年,特に強力な深層学習技術を用いて,斬新で効果的なアプローチが多数提案されている。
この調査は、GDSRの最近の進歩に関する包括的調査を提示する試みである。
論文 参考訳(メタデータ) (2023-02-19T15:43:54Z) - LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation [0.0]
本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
論文 参考訳(メタデータ) (2022-09-21T08:05:53Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Eye Gaze Estimation Model Analysis [2.4366811507669124]
本稿では、視線推定のための様々なモデルタイプについて論じ、非拘束環境における目印を用いた視線方向の予測結果を示す。
制約のない実世界の環境では、照明変更やその他の視覚的アーティファクトなどの要因により、最近の外観ベースの手法により、機能ベースの手法とモデルベースの手法が優れています。
論文 参考訳(メタデータ) (2022-07-28T20:40:03Z) - Effect Of Personalized Calibration On Gaze Estimation Using
Deep-Learning [10.815594142396497]
我々は畳み込みニューラルネットワークを訓練し、その性能を校正なしで分析する。
この評価は、野生での視線推定において、Deep Learningモデルの性能をキャリブレーションがいかに改善したかを明確にする。
論文 参考訳(メタデータ) (2021-09-27T05:14:12Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Deep Learning Schema-based Event Extraction: Literature Review and
Current Trends [60.29289298349322]
ディープラーニングに基づくイベント抽出技術が研究ホットスポットとなっている。
本稿では,ディープラーニングモデルに焦点をあて,最先端のアプローチを見直し,そのギャップを埋める。
論文 参考訳(メタデータ) (2021-07-05T16:32:45Z) - LNSMM: Eye Gaze Estimation With Local Network Share Multiview Multitask [7.065909514483728]
本稿では,視線点と視線方向を同時に推定する新しい手法を提案する。
本手法は,視線点と視線方向の2つの指標について,現在主流の手法であることを示す。
論文 参考訳(メタデータ) (2021-01-18T15:14:24Z) - Deep Learning based Monocular Depth Prediction: Datasets, Methods and
Applications [31.06326714016336]
RGB画像から深度を推定することで、屋内のローカライゼーション、高さ推定、同時ローカライゼーションとマッピングなど、多くのコンピュータビジョンタスクが容易になる。
近年,深層学習技術の急速な発展により,単眼深度推定が大きな進歩を遂げている。
論文 参考訳(メタデータ) (2020-11-09T01:03:13Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z) - CONSAC: Robust Multi-Model Fitting by Conditional Sample Consensus [62.86856923633923]
我々は,同じ形状の複数のパラメトリックモデルを雑音測定に適合させる頑健な推定器を提案する。
複数のモデル検出のための手作り検索戦略を利用する従来の研究とは対照的に,データから検索戦略を学習する。
探索の自己教師付き学習において,提案したアルゴリズムをマルチホログラフィー推定で評価し,最先端手法よりも優れた精度を示す。
論文 参考訳(メタデータ) (2020-01-08T17:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。