論文の概要: L2CS-Net: Fine-Grained Gaze Estimation in Unconstrained Environments
- arxiv url: http://arxiv.org/abs/2203.03339v1
- Date: Mon, 7 Mar 2022 12:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 21:44:56.109953
- Title: L2CS-Net: Fine-Grained Gaze Estimation in Unconstrained Environments
- Title(参考訳): L2CS-Net:非拘束環境における微粒迷路推定
- Authors: Ahmed A.Abdelrahman, Thorsten Hempel, Aly Khalifa, Ayoub Al-Hamadi
- Abstract要約: 制約のない環境での視線予測のための頑健なCNNモデルを提案する。
我々は、ネットワーク学習を改善し、一般化を高めるために、各角度に2つの同一の損失を用いる。
提案モデルでは,MPIIGazeデータセットとGaze360データセットを用いて3.92degと10.41degの最先端精度を実現する。
- 参考スコア(独自算出の注目度): 2.5234156040689237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human gaze is a crucial cue used in various applications such as human-robot
interaction and virtual reality. Recently, convolution neural network (CNN)
approaches have made notable progress in predicting gaze direction. However,
estimating gaze in-the-wild is still a challenging problem due to the
uniqueness of eye appearance, lightning conditions, and the diversity of head
pose and gaze directions. In this paper, we propose a robust CNN-based model
for predicting gaze in unconstrained settings. We propose to regress each gaze
angle separately to improve the per-angel prediction accuracy, which will
enhance the overall gaze performance. In addition, we use two identical losses,
one for each angle, to improve network learning and increase its
generalization. We evaluate our model with two popular datasets collected with
unconstrained settings. Our proposed model achieves state-of-the-art accuracy
of 3.92{\deg} and 10.41{\deg} on MPIIGaze and Gaze360 datasets, respectively.
We make our code open source at https://github.com/Ahmednull/L2CS-Net.
- Abstract(参考訳): 人間の視線は、人間とロボットの相互作用や仮想現実など、さまざまなアプリケーションで使われる重要な手がかりである。
近年,畳み込みニューラルネットワーク (CNN) による視線方向の予測が顕著に進んでいる。
しかし, 目視の特異性, 雷条件, 頭部の姿勢や視線方向の多様性などにより, 視覚内視線の推定はいまだに難しい課題である。
本稿では,制約のない設定で視線を予測するためのロバストなcnnモデルを提案する。
本稿では,それぞれの視角を別々に調整して,視線毎の予測精度を向上させることを提案する。
さらに,ネットワーク学習の改善と一般化の促進のために,各角度毎の2つの同一損失を用いる。
我々は、制約のない設定で収集された2つの人気のあるデータセットを用いて、モデルを評価する。
提案モデルは,mpiigaze と gaze360 のデータセット上で 3.92{\deg} と 10.41{\deg} の最先端精度を実現する。
コードはhttps://github.com/ahmednull/l2cs-netでオープンソースにします。
関連論文リスト
- Merging Multiple Datasets for Improved Appearance-Based Gaze Estimation [10.682719521609743]
2段階のTransformer-based Gaze-Feature Fusion (TTGF) 法では、トランスフォーマーを使用して、両眼と顔の情報を別々にマージし、両眼にマージする。
提案手法は,各データセットにGaze Adaption Moduleを適用して,単一の共有推定器から推定した推定値を補正することにより,アノテーションの不一致を処理する。
論文 参考訳(メタデータ) (2024-09-02T02:51:40Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - Scale Attention for Learning Deep Face Representation: A Study Against
Visual Scale Variation [69.45176408639483]
我々はスケール空間理論に頼って凸層を再構築する。
我々はSCale AttentioN Conv Neural Network(textbfSCAN-CNN)という新しいスタイルを構築した。
単発方式として、推論はマルチショット融合よりも効率的である。
論文 参考訳(メタデータ) (2022-09-19T06:35:04Z) - HybridGazeNet: Geometric model guided Convolutional Neural Networks for
gaze estimation [9.649076368863904]
幾何学的眼球モデルを外見に基づくCNNアーキテクチャに明示的にエンコードする統合フレームワークであるHybridGazeNetを提案する。
複数の挑戦的なガゼデータセットの実験では、HybridGazeNetは既存のSOTA手法よりも精度と一般化能力が優れていることが示されている。
論文 参考訳(メタデータ) (2021-11-23T07:20:37Z) - An Adversarial Human Pose Estimation Network Injected with Graph
Structure [75.08618278188209]
本稿では,いくつかの関節が見えない場合に,可視関節の局所化精度を向上させるために,新しいGAN(Generative Adversarial Network)を設計する。
ネットワークは、2つのシンプルで効率的なモジュール、カスケード機能ネットワーク(CFN)とグラフ構造ネットワーク(GSN)で構成されています。
論文 参考訳(メタデータ) (2021-03-29T12:07:08Z) - Self-Learning Transformations for Improving Gaze and Head Redirection [49.61091281780071]
視線や頭部方向の角度をきめ細かな制御で高品質な画像を生成できる新しい顔画像生成モデルを提案する。
これは、視線やヘッドオリエンテーション、照明、色合いなど、多くの外見上の要因を解消する必要がある。
タスク非関連要因の明示的解消は、視線と頭部の向きのより正確なモデリングをもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-23T11:18:37Z) - 360-Degree Gaze Estimation in the Wild Using Multiple Zoom Scales [26.36068336169795]
焦点を絞った表情から視線を推定する能力を模倣するモデルを開発した。
このモデルは、クリアアイパッチを抽出する必要がない。
モデルを拡張して、360度視線推定の課題に対処する。
論文 参考訳(メタデータ) (2020-09-15T08:45:12Z) - On estimating gaze by self-attention augmented convolutions [6.015556590955813]
本稿では,学習した特徴の質を向上させるために,自己注意型拡張畳み込みに基づく新しいネットワークアーキテクチャを提案する。
私たちは、Attention-augmented ResNet(ARes-14)を2つの畳み込みバックボーンとして探求するフレームワークをARes-gazeと呼びました。
その結果,MPIIFaceGazeデータセットの最先端手法と比較して平均角誤差が2.38%減少し,EyeDiapデータセットの2位となった。
論文 参考訳(メタデータ) (2020-08-25T14:29:05Z) - Dual In-painting Model for Unsupervised Gaze Correction and Animation in
the Wild [82.42401132933462]
視線角度と頭部ポーズの正確なアノテーションを必要とせずに機能する解を提案する。
我々の手法は3つの新しいモジュールからなる: Gaze Correction Module (GCM)、 Gaze Animation Module (GAM)、 Pretrained Autoencoder Module (PAM)。
論文 参考訳(メタデータ) (2020-08-09T23:14:16Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。