論文の概要: Bayesian Eye Tracking
- arxiv url: http://arxiv.org/abs/2106.13387v1
- Date: Fri, 25 Jun 2021 02:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 00:33:11.175629
- Title: Bayesian Eye Tracking
- Title(参考訳): ベイジアンアイトラッキング
- Authors: Qiang Ji and Kang Wang
- Abstract要約: モデルに基づく視線追跡は、目の特徴検出エラーの影響を受けやすい。
モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案手法は,最先端のモデルベースおよび学習ベースの手法と比較して,一般化能力の大幅な向上を示す。
- 参考スコア(独自算出の注目度): 63.21413628808946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model-based eye tracking has been a dominant approach for eye gaze tracking
because of its ability to generalize to different subjects, without the need of
any training data and eye gaze annotations. Model-based eye tracking, however,
is susceptible to eye feature detection errors, in particular for eye tracking
in the wild. To address this issue, we propose a Bayesian framework for
model-based eye tracking. The proposed system consists of a cascade-Bayesian
Convolutional Neural Network (c-BCNN) to capture the probabilistic
relationships between eye appearance and its landmarks, and a geometric eye
model to estimate eye gaze from the eye landmarks. Given a testing eye image,
the Bayesian framework can generate, through Bayesian inference, the eye gaze
distribution without explicit landmark detection and model training, based on
which it not only estimates the most likely eye gaze but also its uncertainty.
Furthermore, with Bayesian inference instead of point-based inference, our
model can not only generalize better to different sub-jects, head poses, and
environments but also is robust to image noise and landmark detection errors.
Finally, with the estimated gaze uncertainty, we can construct a cascade
architecture that allows us to progressively improve gaze estimation accuracy.
Compared to state-of-the-art model-based and learning-based methods, the
proposed Bayesian framework demonstrates significant improvement in
generalization capability across several benchmark datasets and in accuracy and
robustness under challenging real-world conditions.
- Abstract(参考訳): モデルに基づく視線追跡は、訓練データや視線アノテーションを必要とせず、異なる対象に一般化できるため、視線追跡において支配的なアプローチである。
しかし、モデルベースの眼球追跡は、特に野生の眼球追跡において、眼球の特徴検出エラーの影響を受けやすい。
そこで本研究では,モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案システムは,眼の外観とランドマークとの確率的関係を捉えるカスケード・ベイズ畳み込みニューラルネットワーク(c-BCNN)と,眼のランドマークから視線を推定する幾何学的アイモデルから構成される。
ベイジアンフレームワークは、テスト眼画像からベイジアン推定により、明確な目印検出やモデルトレーニングを伴わない視線分布を生成し、最も可能性の高い視線を推定するだけでなく、その不確実性を推定する。
さらに,点に基づく推論ではなくベイズ推論を用いることで,異なるサブジェクトやヘッドポーズ,環境に対してよりよく一般化できるだけでなく,画像ノイズやランドマーク検出誤差にも頑健である。
最後に、視線の不確実性の推定により、視線推定精度を段階的に向上できるカスケードアーキテクチャを構築することができる。
最先端のモデルベースと学習ベースの手法と比較して,提案手法は,いくつかのベンチマークデータセットにおける一般化能力と,実世界の課題条件下での正確性と堅牢性が大幅に向上することを示す。
関連論文リスト
- Gazing Into Missteps: Leveraging Eye-Gaze for Unsupervised Mistake Detection in Egocentric Videos of Skilled Human Activities [25.049754180292034]
我々は、視線信号の解析を通して、自我中心ビデオにおける教師なし誤り検出の課題に対処する。
眼球運動が被写体操作活動に密接に従うという観察に基づいて,視線信号が誤検出をどの程度支援できるかを評価する。
予測された視線軌道と観測された視線軌道の矛盾は、誤りを特定する指標として機能する。
論文 参考訳(メタデータ) (2024-06-12T16:29:45Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - NeRF-Gaze: A Head-Eye Redirection Parametric Model for Gaze Estimation [37.977032771941715]
本稿では,ニューラルラジアンス場に基づく新しい頭部方向パラメトリックモデルを提案する。
我々のモデルは、顔と目を切り離して、別々のニューラルレンダリングを行うことができる。
顔、アイデンティティ、照明、視線方向の属性を別々に制御する目的を達成することができる。
論文 参考訳(メタデータ) (2022-12-30T13:52:28Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Eye Gaze Estimation Model Analysis [2.4366811507669124]
本稿では、視線推定のための様々なモデルタイプについて論じ、非拘束環境における目印を用いた視線方向の予測結果を示す。
制約のない実世界の環境では、照明変更やその他の視覚的アーティファクトなどの要因により、最近の外観ベースの手法により、機能ベースの手法とモデルベースの手法が優れています。
論文 参考訳(メタデータ) (2022-07-28T20:40:03Z) - Gaze Estimation with Eye Region Segmentation and Self-Supervised
Multistream Learning [8.422257363944295]
本稿では、視線推定のための頑健な視線表現を学習する新しいマルチストリームネットワークを提案する。
まず,目に見える眼球と虹彩をシミュレーターを用いて詳述した眼球領域マスクを含む合成データセットを作成する。
次に、U-Net型モデルを用いて視線領域分割を行い、実際の画像の視線領域マスクを生成する。
論文 参考訳(メタデータ) (2021-12-15T04:44:45Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。