論文の概要: A High-Level Description and Performance Evaluation of Pupil Invisible
- arxiv url: http://arxiv.org/abs/2009.00508v1
- Date: Tue, 1 Sep 2020 15:10:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:27:59.970635
- Title: A High-Level Description and Performance Evaluation of Pupil Invisible
- Title(参考訳): プル不可視の高レベル記述と性能評価
- Authors: Marc Tonsen, Chris Kay Baumann, Kai Dierkes
- Abstract要約: Pupil LabsがPupil Invisibleメガネをリリースした。
そこで本研究では,Pupil Invisible Glassの実際の使用を忠実に表現することを目的とした,データ収集プロトコルと評価手法を開発した。
キャリブレーションが不要なPupil Invisible Glassは、摂動に頑健な視線推定を提供することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Head-mounted eye trackers promise convenient access to reliable gaze data in
unconstrained environments. Due to several limitations, however, often they can
only partially deliver on this promise.
Among those are the following: (i) the necessity of performing a device setup
and calibration prior to every use of the eye tracker, (ii) a lack of
robustness of gaze-estimation results against perturbations, such as outdoor
lighting conditions and unavoidable slippage of the eye tracker on the head of
the subject, and (iii) behavioral distortion resulting from social awkwardness,
due to the unnatural appearance of current head-mounted eye trackers.
Recently, Pupil Labs released Pupil Invisible glasses, a head-mounted eye
tracker engineered to tackle these limitations. Here, we present an extensive
evaluation of its gaze-estimation capabilities. To this end, we designed a
data-collection protocol and evaluation scheme geared towards providing a
faithful portrayal of the real-world usage of Pupil Invisible glasses.
In particular, we develop a geometric framework for gauging gaze-estimation
accuracy that goes beyond reporting mean angular accuracy. We demonstrate that
Pupil Invisible glasses, without the need of a calibration, provide gaze
estimates which are robust to perturbations, including outdoor lighting
conditions and slippage of the headset.
- Abstract(参考訳): ヘッドマウントアイトラッカーは、制約のない環境で信頼できる視線データに便利なアクセスを約束する。
しかし、いくつかの制限があるため、多くの場合、彼らはこの約束を部分的にしか達成できない。
以下は以下のとおりである。
(i)アイトラッカーの使用ごとに装置の設定及び校正を行う必要があること。
(二 被検者の頭上の視線追跡者の屋外照明条件、回避不能な滑落等の摂動に対する視線推定結果の頑健さの欠如。)
(iii)現在のヘッドマウントアイトラッカーの不自然な外観による社会的ぎこちないによる行動の歪み。
最近、intercent labsは、これらの制限に対処するために設計されたヘッドマウントアイトラッカーである、瞳孔不可視眼鏡をリリースした。
本稿では,視線推定能力の広範な評価を行う。
そこで,我々は,瞳孔視眼鏡の実際の使用を忠実に表現することを目的としたデータ収集プロトコルと評価スキームを設計した。
特に,平均角精度以上の視線推定精度を計測するための幾何学的枠組みを開発した。
瞳孔が見えない眼鏡は、キャリブレーションを必要とせず、屋外の照明条件やヘッドセットの滑りなど、摂動に頑健な視線推定を提供する。
関連論文リスト
- DeepMetricEye: Metric Depth Estimation in Periocular VR Imagery [4.940128337433944]
本稿では,U-Net 3+のディープラーニングバックボーンをベースとした軽量なフレームワークを提案する。
本手法は,3次元眼球周囲領域を再構成し,関連する光刺激計算プロトコルと医療ガイドラインの計量基準を提供する。
被験者36名を対象に, 眼球全球精度評価実験, 瞳孔径測定において有意な有効性を示した。
論文 参考訳(メタデータ) (2023-11-13T10:55:05Z) - Periocular Biometrics: A Modality for Unconstrained Scenarios [66.93179447621188]
眼球周囲のバイオメトリックスには、眼窩を囲む顔の外部から見える領域が含まれる。
新型コロナウイルス(COVID-19)のパンデミックは、コントロールされた設定でも目に見える唯一の顔領域であり、その重要性を強調している。
論文 参考訳(メタデータ) (2022-12-28T12:08:27Z) - SMUDLP: Self-Teaching Multi-Frame Unsupervised Endoscopic Depth
Estimation with Learnable Patchmatch [25.35009126980672]
教師なし単分子深度推定モデルは、訓練期間中に隣接するフレームを監視信号として利用する。
時間的相関フレームは、手術ナビゲーションなどの多くの臨床応用のために、推論時にも利用可能である。
SMUDLPは,多フレーム単眼の内視鏡的深度推定のための,新規かつ教師なしのパラダイムである。
論文 参考訳(メタデータ) (2022-05-30T12:11:03Z) - The Probabilistic Normal Epipolar Constraint for Frame-To-Frame Rotation
Optimization under Uncertain Feature Positions [53.478856119297284]
特徴位置における異方性および不均一性を考慮した確率論的正規極性制約(PNEC)を導入する。
合成データの実験において、新しいPNECは元のNECよりも正確な回転推定値が得られることを示した。
我々は,提案手法を最先端のモノクロ回転専用オドメトリーシステムに統合し,実世界のKITTIデータセットに対して一貫した改良を行った。
論文 参考訳(メタデータ) (2022-04-05T14:47:11Z) - Bayesian Eye Tracking [63.21413628808946]
モデルに基づく視線追跡は、目の特徴検出エラーの影響を受けやすい。
モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案手法は,最先端のモデルベースおよび学習ベースの手法と比較して,一般化能力の大幅な向上を示す。
論文 参考訳(メタデータ) (2021-06-25T02:08:03Z) - Weakly-Supervised Physically Unconstrained Gaze Estimation [80.66438763587904]
我々は、人間のインタラクションのビデオから弱教師付き視線推定を行うという未発見の問題に対処する。
本稿では,タスクに特化して設計された新しい損失関数とともに,トレーニングアルゴリズムを提案する。
a)半教師付き視線推定の精度と(b)最先端の物理的に制約のないGaze360視線推定ベンチマーク上でのクロスドメイン一般化の精度を大幅に改善した。
論文 参考訳(メタデータ) (2021-05-20T14:58:52Z) - Self-Learning Transformations for Improving Gaze and Head Redirection [49.61091281780071]
視線や頭部方向の角度をきめ細かな制御で高品質な画像を生成できる新しい顔画像生成モデルを提案する。
これは、視線やヘッドオリエンテーション、照明、色合いなど、多くの外見上の要因を解消する必要がある。
タスク非関連要因の明示的解消は、視線と頭部の向きのより正確なモデリングをもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-23T11:18:37Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - MLGaze: Machine Learning-Based Analysis of Gaze Error Patterns in
Consumer Eye Tracking Systems [0.0]
本研究では,市販眼球追跡装置が生成する視線誤差パターンを機械学習アルゴリズムを用いて検討した。
異なる誤差源が視線データ特性に与える影響は、視線検査やデータ統計によってほとんど区別できないが、機械学習モデルは、異なる誤差源の影響を特定し、これらの条件による視線エラーレベルの変動を予測することに成功している。
論文 参考訳(メタデータ) (2020-05-07T23:07:02Z) - Gaze Preserving CycleGANs for Eyeglass Removal & Persistent Gaze
Estimation [8.47514372451741]
視線方向を推定することは、理想的な条件下で運転者の状態を測定する最も明白な方法である。
厳密な照明、夜間の条件、反射眼鏡の下で単独でポーズをとることは、信頼性が悪く、誤っていることを証明できる。
提案するGaze Preserving CycleGAN (GPCycleGAN) は,顔画像から潜在的眼鏡を取り除き,運転者の視線を保護するために訓練されている。
論文 参考訳(メタデータ) (2020-02-06T02:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。