論文の概要: Gaze-Net: Appearance-Based Gaze Estimation using Capsule Networks
- arxiv url: http://arxiv.org/abs/2004.07777v1
- Date: Thu, 16 Apr 2020 17:12:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 22:03:11.499915
- Title: Gaze-Net: Appearance-Based Gaze Estimation using Capsule Networks
- Title(参考訳): Gaze-Net:カプセルネットワークを用いた外観に基づく視線推定
- Authors: Bhanuka Mahanama, Yasith Jayawardana and Sampath Jayarathna
- Abstract要約: 本稿では,眼球領域の画像から視線情報を復号し,表現し,推定できるカプセルネットワークGaze-Netを提案する。
我々は,MPIIGazeとColumbia Gazeの2つの公開データセットを用いて提案システムの評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on appearance based gaze estimation indicate the ability of
Neural Networks to decode gaze information from facial images encompassing pose
information. In this paper, we propose Gaze-Net: A capsule network capable of
decoding, representing, and estimating gaze information from ocular region
images. We evaluate our proposed system using two publicly available datasets,
MPIIGaze (200,000+ images in the wild) and Columbia Gaze (5000+ images of users
with 21 gaze directions observed at 5 camera angles/positions). Our model
achieves a Mean Absolute Error (MAE) of 2.84$^\circ$ for Combined angle error
estimate within dataset for MPI-IGaze dataset. Further, model achieves a MAE of
10.04$^\circ$ for across dataset gaze estimation error for Columbia gaze
dataset. Through transfer learning, the error is reduced to 5.9$^\circ$. The
results show this approach is promising with implications towards using
commodity webcams to develop low-cost multi-user gaze tracking systems.
- Abstract(参考訳): 外観に基づく視線推定の最近の研究は、ポーズ情報を含む顔画像から視線情報をデコードするニューラルネットワークの能力を示している。
本稿では,眼領域画像から視線情報をデコードし,表現し,推定できるカプセルネットワークである gaze-net を提案する。
提案システムは,MPIIGaze(野生で20万枚以上の画像)とColumbia Gaze(5つのカメラ角度/位置で21の視線方向を持つユーザの5000枚以上の画像)の2つの公開データセットを用いて評価した。
本モデルでは,mpi-igazeデータセットのデータセット内で平均絶対誤差(mae)を2.84$^\circ$で推定する。
さらに、10.04$^\circ$でデータセットの視線推定誤差をコロンビアの視線データに対して達成する。
転送学習により、誤差は5.9$^\circ$に低減される。
その結果,コモディティウェブカメラによる低コストマルチユーザー視線追跡システムの開発が期待できることがわかった。
関連論文リスト
- Learning Gaze-aware Compositional GAN [30.714854907472333]
ラベル付きおよびラベルなしデータソースの利点を活用して、注釈付き視線データを作成するための生成フレームワークを提案する。
本稿では,ETH-XGazeデータセットにおける領域内画像拡張と,CelebAMask-HQデータセット領域における領域間画像拡張による視線推定トレーニングの有効性を示す。
論文 参考訳(メタデータ) (2024-05-31T07:07:54Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Gaze Estimation Approach Using Deep Differential Residual Network [14.277069184728193]
両眼画像の差分情報を利用するために,新たな損失関数を組み合わせた差分残差モデル(DRNet)を提案する。
DRNetは目の特徴だけを考慮すると、最先端の視線推定法より$angular-error$4.57と6.14で優れている。
論文 参考訳(メタデータ) (2022-08-08T17:37:07Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - L2CS-Net: Fine-Grained Gaze Estimation in Unconstrained Environments [2.5234156040689237]
制約のない環境での視線予測のための頑健なCNNモデルを提案する。
我々は、ネットワーク学習を改善し、一般化を高めるために、各角度に2つの同一の損失を用いる。
提案モデルでは,MPIIGazeデータセットとGaze360データセットを用いて3.92degと10.41degの最先端精度を実現する。
論文 参考訳(メタデータ) (2022-03-07T12:35:39Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - 360-Degree Gaze Estimation in the Wild Using Multiple Zoom Scales [26.36068336169795]
焦点を絞った表情から視線を推定する能力を模倣するモデルを開発した。
このモデルは、クリアアイパッチを抽出する必要がない。
モデルを拡張して、360度視線推定の課題に対処する。
論文 参考訳(メタデータ) (2020-09-15T08:45:12Z) - Dual In-painting Model for Unsupervised Gaze Correction and Animation in
the Wild [82.42401132933462]
視線角度と頭部ポーズの正確なアノテーションを必要とせずに機能する解を提案する。
我々の手法は3つの新しいモジュールからなる: Gaze Correction Module (GCM)、 Gaze Animation Module (GAM)、 Pretrained Autoencoder Module (PAM)。
論文 参考訳(メタデータ) (2020-08-09T23:14:16Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。