論文の概要: A High-Level Description and Performance Evaluation of Pupil Invisible
- arxiv url: http://arxiv.org/abs/2009.00508v1
- Date: Tue, 1 Sep 2020 15:10:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:27:59.970635
- Title: A High-Level Description and Performance Evaluation of Pupil Invisible
- Title(参考訳): プル不可視の高レベル記述と性能評価
- Authors: Marc Tonsen, Chris Kay Baumann, Kai Dierkes
- Abstract要約: Pupil LabsがPupil Invisibleメガネをリリースした。
そこで本研究では,Pupil Invisible Glassの実際の使用を忠実に表現することを目的とした,データ収集プロトコルと評価手法を開発した。
キャリブレーションが不要なPupil Invisible Glassは、摂動に頑健な視線推定を提供することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Head-mounted eye trackers promise convenient access to reliable gaze data in
unconstrained environments. Due to several limitations, however, often they can
only partially deliver on this promise.
Among those are the following: (i) the necessity of performing a device setup
and calibration prior to every use of the eye tracker, (ii) a lack of
robustness of gaze-estimation results against perturbations, such as outdoor
lighting conditions and unavoidable slippage of the eye tracker on the head of
the subject, and (iii) behavioral distortion resulting from social awkwardness,
due to the unnatural appearance of current head-mounted eye trackers.
Recently, Pupil Labs released Pupil Invisible glasses, a head-mounted eye
tracker engineered to tackle these limitations. Here, we present an extensive
evaluation of its gaze-estimation capabilities. To this end, we designed a
data-collection protocol and evaluation scheme geared towards providing a
faithful portrayal of the real-world usage of Pupil Invisible glasses.
In particular, we develop a geometric framework for gauging gaze-estimation
accuracy that goes beyond reporting mean angular accuracy. We demonstrate that
Pupil Invisible glasses, without the need of a calibration, provide gaze
estimates which are robust to perturbations, including outdoor lighting
conditions and slippage of the headset.
- Abstract(参考訳): ヘッドマウントアイトラッカーは、制約のない環境で信頼できる視線データに便利なアクセスを約束する。
しかし、いくつかの制限があるため、多くの場合、彼らはこの約束を部分的にしか達成できない。
以下は以下のとおりである。
(i)アイトラッカーの使用ごとに装置の設定及び校正を行う必要があること。
(二 被検者の頭上の視線追跡者の屋外照明条件、回避不能な滑落等の摂動に対する視線推定結果の頑健さの欠如。)
(iii)現在のヘッドマウントアイトラッカーの不自然な外観による社会的ぎこちないによる行動の歪み。
最近、intercent labsは、これらの制限に対処するために設計されたヘッドマウントアイトラッカーである、瞳孔不可視眼鏡をリリースした。
本稿では,視線推定能力の広範な評価を行う。
そこで,我々は,瞳孔視眼鏡の実際の使用を忠実に表現することを目的としたデータ収集プロトコルと評価スキームを設計した。
特に,平均角精度以上の視線推定精度を計測するための幾何学的枠組みを開発した。
瞳孔が見えない眼鏡は、キャリブレーションを必要とせず、屋外の照明条件やヘッドセットの滑りなど、摂動に頑健な視線推定を提供する。
関連論文リスト
- Learning Unsupervised Gaze Representation via Eye Mask Driven Information Bottleneck [36.255590251433844]
本研究は,教師なし・自己監督型視線事前学習フレームワークを提案する。
これは全顔の枝に、視線アノテーションを使わずに低次元の視線埋め込みを学習させ、協調的な特徴コントラストと圧縮モジュールを通して学習させる。
このフレームワークのコアには、視線関連情報をフルフェイスブランチからアイメイドのオートエンコーダに絞り込む、交互に目が当たらないマスキングトレーニングスキームがある。
論文 参考訳(メタデータ) (2024-06-29T04:35:08Z) - Gazing Into Missteps: Leveraging Eye-Gaze for Unsupervised Mistake Detection in Egocentric Videos of Skilled Human Activities [25.049754180292034]
我々は、視線信号の解析を通して、自我中心ビデオにおける教師なし誤り検出の課題に対処する。
眼球運動が被写体操作活動に密接に従うという観察に基づいて,視線信号が誤検出をどの程度支援できるかを評価する。
予測された視線軌道と観測された視線軌道の矛盾は、誤りを特定する指標として機能する。
論文 参考訳(メタデータ) (2024-06-12T16:29:45Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Using Deep Learning to Increase Eye-Tracking Robustness, Accuracy, and Precision in Virtual Reality [2.2639735235640015]
この研究は、目の特徴追跡のための現代の機械学習(ML)に基づくいくつかの手法の影響を客観的に評価する。
メトリックには、視線推定の精度と精度、およびドロップアウト率が含まれる。
論文 参考訳(メタデータ) (2024-03-28T18:43:25Z) - DeepMetricEye: Metric Depth Estimation in Periocular VR Imagery [4.940128337433944]
本稿では,U-Net 3+のディープラーニングバックボーンをベースとした軽量なフレームワークを提案する。
本手法は,3次元眼球周囲領域を再構成し,関連する光刺激計算プロトコルと医療ガイドラインの計量基準を提供する。
被験者36名を対象に, 眼球全球精度評価実験, 瞳孔径測定において有意な有効性を示した。
論文 参考訳(メタデータ) (2023-11-13T10:55:05Z) - Periocular Biometrics: A Modality for Unconstrained Scenarios [66.93179447621188]
眼球周囲のバイオメトリックスには、眼窩を囲む顔の外部から見える領域が含まれる。
新型コロナウイルス(COVID-19)のパンデミックは、コントロールされた設定でも目に見える唯一の顔領域であり、その重要性を強調している。
論文 参考訳(メタデータ) (2022-12-28T12:08:27Z) - The Probabilistic Normal Epipolar Constraint for Frame-To-Frame Rotation
Optimization under Uncertain Feature Positions [53.478856119297284]
特徴位置における異方性および不均一性を考慮した確率論的正規極性制約(PNEC)を導入する。
合成データの実験において、新しいPNECは元のNECよりも正確な回転推定値が得られることを示した。
我々は,提案手法を最先端のモノクロ回転専用オドメトリーシステムに統合し,実世界のKITTIデータセットに対して一貫した改良を行った。
論文 参考訳(メタデータ) (2022-04-05T14:47:11Z) - Bayesian Eye Tracking [63.21413628808946]
モデルに基づく視線追跡は、目の特徴検出エラーの影響を受けやすい。
モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案手法は,最先端のモデルベースおよび学習ベースの手法と比較して,一般化能力の大幅な向上を示す。
論文 参考訳(メタデータ) (2021-06-25T02:08:03Z) - Weakly-Supervised Physically Unconstrained Gaze Estimation [80.66438763587904]
我々は、人間のインタラクションのビデオから弱教師付き視線推定を行うという未発見の問題に対処する。
本稿では,タスクに特化して設計された新しい損失関数とともに,トレーニングアルゴリズムを提案する。
a)半教師付き視線推定の精度と(b)最先端の物理的に制約のないGaze360視線推定ベンチマーク上でのクロスドメイン一般化の精度を大幅に改善した。
論文 参考訳(メタデータ) (2021-05-20T14:58:52Z) - Self-Learning Transformations for Improving Gaze and Head Redirection [49.61091281780071]
視線や頭部方向の角度をきめ細かな制御で高品質な画像を生成できる新しい顔画像生成モデルを提案する。
これは、視線やヘッドオリエンテーション、照明、色合いなど、多くの外見上の要因を解消する必要がある。
タスク非関連要因の明示的解消は、視線と頭部の向きのより正確なモデリングをもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-23T11:18:37Z) - Gaze Preserving CycleGANs for Eyeglass Removal & Persistent Gaze
Estimation [8.47514372451741]
視線方向を推定することは、理想的な条件下で運転者の状態を測定する最も明白な方法である。
厳密な照明、夜間の条件、反射眼鏡の下で単独でポーズをとることは、信頼性が悪く、誤っていることを証明できる。
提案するGaze Preserving CycleGAN (GPCycleGAN) は,顔画像から潜在的眼鏡を取り除き,運転者の視線を保護するために訓練されている。
論文 参考訳(メタデータ) (2020-02-06T02:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。