論文の概要: Towards High Performance Low Complexity Calibration in Appearance Based
Gaze Estimation
- arxiv url: http://arxiv.org/abs/2001.09284v2
- Date: Sun, 13 Feb 2022 14:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 00:18:16.514451
- Title: Towards High Performance Low Complexity Calibration in Appearance Based
Gaze Estimation
- Title(参考訳): 外観に基づく視線推定における高性能低複雑性校正に向けて
- Authors: Zhaokang Chen and Bertram E. Shi
- Abstract要約: RGB画像からの出現に基づく視線推定は、比較的制約のない視線追跡を提供する。
キャリブレーションデータにおいて,視線対象者数,視線対象者当たりの画像数,頭部位置数の影響を解析した。
1つの視線目標と1つの頭の位置しか使用せず、高品質な校正を達成するには十分であり、最先端の手法を6.3%以上上回っている。
- 参考スコア(独自算出の注目度): 7.857571508499849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Appearance-based gaze estimation from RGB images provides relatively
unconstrained gaze tracking. We have previously proposed a gaze decomposition
method that decomposes the gaze angle into the sum of a subject-independent
gaze estimate from the image and a subject-dependent bias. This paper extends
that work with a more complete characterization of the interplay between the
complexity of the calibration dataset and estimation accuracy. We analyze the
effect of the number of gaze targets, the number of images used per gaze target
and the number of head positions in calibration data using a new NISLGaze
dataset, which is well suited for analyzing these effects as it includes more
diversity in head positions and orientations for each subject than other
datasets. A better understanding of these factors enables low complexity high
performance calibration. Our results indicate that using only a single gaze
target and single head position is sufficient to achieve high quality
calibration, outperforming state-of-the-art methods by more than 6.3%. One of
the surprising findings is that the same estimator yields the best performance
both with and without calibration. To better understand the reasons, we provide
a new theoretical analysis that specifies the conditions under which this can
be expected.
- Abstract(参考訳): RGB画像からの出現に基づく視線推定は、比較的制約のない視線追跡を提供する。
これまで我々は,視線角を被写体非依存視線推定値と被写体依存バイアスの合計に分解する視線分解法を提案してきた。
本稿では,キャリブレーションデータセットの複雑さと推定精度との相互作用を,より完全な特徴付けで拡張する。
新たなnislgazeデータセットを用いて,注視対象数,注視対象毎の画像数,キャリブレーションデータにおける頭部位置数の影響を分析した。
これらの要因をよりよく理解することで、複雑さの低いハイパフォーマンスキャリブレーションが可能になる。
その結果,1つの視線目標と1つの頭部位置のみを使用することで,高品質なキャリブレーションが可能となり,最先端の手法を6.3%以上上回った。
驚くべき発見の1つは、同じ推定器がキャリブレーションと無校正の両方で最高の性能をもたらすことである。
その理由をより深く理解するため,我々は,期待できる条件を特定する新しい理論的解析法を提案する。
関連論文リスト
- Towards Precision in Appearance-based Gaze Estimation in the Wild [3.4253416336476246]
我々は、より広い頭部ポーズと照明変動を有する大規模な視線推定データセット PARKS-Gaze を提案する。
提案されたデータセットはより困難で、既存の組み込みデータセットよりも、見えない参加者にモデルを一般化することができる。
論文 参考訳(メタデータ) (2023-02-05T10:09:35Z) - NeRF-Gaze: A Head-Eye Redirection Parametric Model for Gaze Estimation [37.977032771941715]
本稿では,ニューラルラジアンス場に基づく新しい頭部方向パラメトリックモデルを提案する。
我々のモデルは、顔と目を切り離して、別々のニューラルレンダリングを行うことができる。
顔、アイデンティティ、照明、視線方向の属性を別々に制御する目的を達成することができる。
論文 参考訳(メタデータ) (2022-12-30T13:52:28Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - One Eye is All You Need: Lightweight Ensembles for Gaze Estimation with
Single Encoders [0.0]
本稿では,ResNet と Inception モデルアーキテクチャを実装した視線推定モデルを提案する。
軽量アーキテクチャを用いることで,モデルパラメータ数が非常に少ないGazeCaptureデータセット上で高い性能を実現する。
また,テストセットの右目画像の誤差も有意に小さく,将来の視線推定ツールの設計において重要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-11-22T01:12:31Z) - Contrastive Weighted Learning for Near-Infrared Gaze Estimation [0.228438857884398]
コントラスト学習を用いた近赤外画像による視線推定のための新しいフレームワークであるGazeCWLを提案する。
我々のモデルは、赤外線画像に基づく視線推定において、以前の領域一般化モデルよりも優れている。
論文 参考訳(メタデータ) (2022-11-06T10:03:23Z) - Visualizing and Alleviating the Effect of Radial Distortion on Camera
Calibration Using Principal Lines [8.051200635659006]
主点の推定は、ほぼ平行な主直線の線型独立な対に基づいて行うべきである。
実験結果から, より頑健で一貫したキャリブレーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-06-28T17:21:26Z) - The Probabilistic Normal Epipolar Constraint for Frame-To-Frame Rotation
Optimization under Uncertain Feature Positions [53.478856119297284]
特徴位置における異方性および不均一性を考慮した確率論的正規極性制約(PNEC)を導入する。
合成データの実験において、新しいPNECは元のNECよりも正確な回転推定値が得られることを示した。
我々は,提案手法を最先端のモノクロ回転専用オドメトリーシステムに統合し,実世界のKITTIデータセットに対して一貫した改良を行った。
論文 参考訳(メタデータ) (2022-04-05T14:47:11Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Expected Validation Performance and Estimation of a Random Variable's
Maximum [48.83713377993604]
予測された検証性能に対する3つの統計的推定器を解析する。
偏りのない推定器は最も分散度が高く、最小分散度を持つ推定器は最大のバイアスを持つ。
2つの偏りのある推定器は、最も少ない誤った結論につながる。
論文 参考訳(メタデータ) (2021-10-01T18:48:47Z) - Towards Top-Down Just Noticeable Difference Estimation of Natural Images [65.14746063298415]
JNDの推定は、主に空間領域と周波数領域における異なる要因の可視性マスキング効果をモデル化することに焦点を当てている。
この作業では、トップダウンの設計哲学でこれらの問題に対処する、劇的に異なる方法に目を向けます。
提案したJNDモデルは,最新のJNDモデルよりも優れた性能を実現することができる。
論文 参考訳(メタデータ) (2021-08-11T06:51:50Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。