論文の概要: Towards High Performance Low Complexity Calibration in Appearance Based
Gaze Estimation
- arxiv url: http://arxiv.org/abs/2001.09284v2
- Date: Sun, 13 Feb 2022 14:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 00:18:16.514451
- Title: Towards High Performance Low Complexity Calibration in Appearance Based
Gaze Estimation
- Title(参考訳): 外観に基づく視線推定における高性能低複雑性校正に向けて
- Authors: Zhaokang Chen and Bertram E. Shi
- Abstract要約: RGB画像からの出現に基づく視線推定は、比較的制約のない視線追跡を提供する。
キャリブレーションデータにおいて,視線対象者数,視線対象者当たりの画像数,頭部位置数の影響を解析した。
1つの視線目標と1つの頭の位置しか使用せず、高品質な校正を達成するには十分であり、最先端の手法を6.3%以上上回っている。
- 参考スコア(独自算出の注目度): 7.857571508499849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Appearance-based gaze estimation from RGB images provides relatively
unconstrained gaze tracking. We have previously proposed a gaze decomposition
method that decomposes the gaze angle into the sum of a subject-independent
gaze estimate from the image and a subject-dependent bias. This paper extends
that work with a more complete characterization of the interplay between the
complexity of the calibration dataset and estimation accuracy. We analyze the
effect of the number of gaze targets, the number of images used per gaze target
and the number of head positions in calibration data using a new NISLGaze
dataset, which is well suited for analyzing these effects as it includes more
diversity in head positions and orientations for each subject than other
datasets. A better understanding of these factors enables low complexity high
performance calibration. Our results indicate that using only a single gaze
target and single head position is sufficient to achieve high quality
calibration, outperforming state-of-the-art methods by more than 6.3%. One of
the surprising findings is that the same estimator yields the best performance
both with and without calibration. To better understand the reasons, we provide
a new theoretical analysis that specifies the conditions under which this can
be expected.
- Abstract(参考訳): RGB画像からの出現に基づく視線推定は、比較的制約のない視線追跡を提供する。
これまで我々は,視線角を被写体非依存視線推定値と被写体依存バイアスの合計に分解する視線分解法を提案してきた。
本稿では,キャリブレーションデータセットの複雑さと推定精度との相互作用を,より完全な特徴付けで拡張する。
新たなnislgazeデータセットを用いて,注視対象数,注視対象毎の画像数,キャリブレーションデータにおける頭部位置数の影響を分析した。
これらの要因をよりよく理解することで、複雑さの低いハイパフォーマンスキャリブレーションが可能になる。
その結果,1つの視線目標と1つの頭部位置のみを使用することで,高品質なキャリブレーションが可能となり,最先端の手法を6.3%以上上回った。
驚くべき発見の1つは、同じ推定器がキャリブレーションと無校正の両方で最高の性能をもたらすことである。
その理由をより深く理解するため,我々は,期待できる条件を特定する新しい理論的解析法を提案する。
関連論文リスト
- Data Augmentation via Latent Diffusion for Saliency Prediction [67.88936624546076]
残差予測モデルはラベル付きデータの限られた多様性と量によって制約される。
本研究では,実世界のシーンの複雑さと変動性を保ちながら,自然画像の編集を行うディープ・サリエンシ・予測のための新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T14:36:24Z) - Generalized Maximum Likelihood Estimation for Perspective-n-Point Problem [11.662329798571953]
既存の手法では、いくつかの実世界のデータセットで示されているように、観測の異方性の不確実性は無視されている。
本稿では,翻訳精度の向上による基準値の最小化を図るため,GMLと呼ばれる一般化された最大公約解法を提案する。
視覚に基づくUAVタスクにおいて非常にノイズの多い観測の下ではより正確であり、翻訳推定では34.4%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-08-04T07:06:04Z) - NeRF-Gaze: A Head-Eye Redirection Parametric Model for Gaze Estimation [37.977032771941715]
本稿では,ニューラルラジアンス場に基づく新しい頭部方向パラメトリックモデルを提案する。
我々のモデルは、顔と目を切り離して、別々のニューラルレンダリングを行うことができる。
顔、アイデンティティ、照明、視線方向の属性を別々に制御する目的を達成することができる。
論文 参考訳(メタデータ) (2022-12-30T13:52:28Z) - One Eye is All You Need: Lightweight Ensembles for Gaze Estimation with
Single Encoders [0.0]
本稿では,ResNet と Inception モデルアーキテクチャを実装した視線推定モデルを提案する。
軽量アーキテクチャを用いることで,モデルパラメータ数が非常に少ないGazeCaptureデータセット上で高い性能を実現する。
また,テストセットの右目画像の誤差も有意に小さく,将来の視線推定ツールの設計において重要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-11-22T01:12:31Z) - Contrastive Weighted Learning for Near-Infrared Gaze Estimation [0.228438857884398]
コントラスト学習を用いた近赤外画像による視線推定のための新しいフレームワークであるGazeCWLを提案する。
我々のモデルは、赤外線画像に基づく視線推定において、以前の領域一般化モデルよりも優れている。
論文 参考訳(メタデータ) (2022-11-06T10:03:23Z) - Visualizing and Alleviating the Effect of Radial Distortion on Camera
Calibration Using Principal Lines [8.051200635659006]
主点の推定は、ほぼ平行な主直線の線型独立な対に基づいて行うべきである。
実験結果から, より頑健で一貫したキャリブレーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-06-28T17:21:26Z) - The Probabilistic Normal Epipolar Constraint for Frame-To-Frame Rotation
Optimization under Uncertain Feature Positions [53.478856119297284]
特徴位置における異方性および不均一性を考慮した確率論的正規極性制約(PNEC)を導入する。
合成データの実験において、新しいPNECは元のNECよりも正確な回転推定値が得られることを示した。
我々は,提案手法を最先端のモノクロ回転専用オドメトリーシステムに統合し,実世界のKITTIデータセットに対して一貫した改良を行った。
論文 参考訳(メタデータ) (2022-04-05T14:47:11Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Expected Validation Performance and Estimation of a Random Variable's
Maximum [48.83713377993604]
予測された検証性能に対する3つの統計的推定器を解析する。
偏りのない推定器は最も分散度が高く、最小分散度を持つ推定器は最大のバイアスを持つ。
2つの偏りのある推定器は、最も少ない誤った結論につながる。
論文 参考訳(メタデータ) (2021-10-01T18:48:47Z) - Towards Top-Down Just Noticeable Difference Estimation of Natural Images [65.14746063298415]
JNDの推定は、主に空間領域と周波数領域における異なる要因の可視性マスキング効果をモデル化することに焦点を当てている。
この作業では、トップダウンの設計哲学でこれらの問題に対処する、劇的に異なる方法に目を向けます。
提案したJNDモデルは,最新のJNDモデルよりも優れた性能を実現することができる。
論文 参考訳(メタデータ) (2021-08-11T06:51:50Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。