論文の概要: Efficiency in Real-time Webcam Gaze Tracking
- arxiv url: http://arxiv.org/abs/2009.01270v1
- Date: Wed, 2 Sep 2020 18:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 18:16:00.805883
- Title: Efficiency in Real-time Webcam Gaze Tracking
- Title(参考訳): リアルタイムWebカメラ視線追跡における効率性
- Authors: Amogh Gudi, Xin Li, Jan van Gemert
- Abstract要約: 我々はCNNの計算速度/精度トレードオフと画面校正の校正作業/精度トレードオフを評価する。
その結果、単一眼球入力と幾何回帰キャリブレーションが最良のトレードオフを実現することが示唆された。
- 参考スコア(独自算出の注目度): 17.046299255215704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficiency and ease of use are essential for practical applications of camera
based eye/gaze-tracking. Gaze tracking involves estimating where a person is
looking on a screen based on face images from a computer-facing camera. In this
paper we investigate two complementary forms of efficiency in gaze tracking: 1.
The computational efficiency of the system which is dominated by the inference
speed of a CNN predicting gaze-vectors; 2. The usability efficiency which is
determined by the tediousness of the mandatory calibration of the gaze-vector
to a computer screen. To do so, we evaluate the computational speed/accuracy
trade-off for the CNN and the calibration effort/accuracy trade-off for screen
calibration. For the CNN, we evaluate the full face, two-eyes, and single eye
input. For screen calibration, we measure the number of calibration points
needed and evaluate three types of calibration: 1. pure geometry, 2. pure
machine learning, and 3. hybrid geometric regression. Results suggest that a
single eye input and geometric regression calibration achieve the best
trade-off.
- Abstract(参考訳): カメラベースアイ/ガゼトラッキングの実用化には効率性と使いやすさが不可欠である。
視線追跡は、コンピュータカメラの顔画像に基づいて、人が画面を見ている場所を推定する。
本稿では,視線追跡における2つの相補的な効率性について検討する。
1. 視線ベクトルを予測するCNNの推論速度に支配されるシステムの計算効率
2.コンピュータ画面への視線ベクトルの強制キャリブレーションの煩雑さによって決定されるユーザビリティの効率性。
そこで我々は,CNNの計算速度/精度トレードオフと画面校正における校正作業/精度トレードオフを評価する。
CNNではフルフェイス,2眼,シングルアイ入力を評価した。
画面校正には,必要な校正点数を測定し,3種類の校正方法を評価する。
1.純粋幾何学
2. 純粋な機械学習と
3.ハイブリッド幾何回帰
その結果,片眼入力と幾何回帰校正が最善のトレードオフを達成できることが示唆された。
関連論文リスト
- Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - On Calibration of Modern Quantized Efficient Neural Networks [79.06893963657335]
キャリブレーションの質は、量子化の質を追跡するために観察される。
GhostNet-VGGは、低い精度で全体的なパフォーマンス低下に対して最も堅牢であることが示されている。
論文 参考訳(メタデータ) (2023-09-25T04:30:18Z) - Online estimation of the hand-eye transformation from surgical scenes [11.797350284719803]
本稿では,画像とキネマティックデータのシーケンスから変換を推定するニューラルネットワークベースのソリューションを提案する。
提案アルゴリズムは,ディープラーニング技術を用いてキャリブレーション手順を単純化できることを示す。
論文 参考訳(メタデータ) (2023-06-04T04:55:02Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Online Camera-to-ground Calibration for Autonomous Driving [26.357898919134833]
運転中に特定の目標を利用できないオンライン単眼カメラ・地上キャリブレーションソリューションを提案する。
キャリブレーション性能の定量化と,満足度の高いキャリブレーション結果の報告・放送の停止基準を提供する。
論文 参考訳(メタデータ) (2023-03-30T04:01:48Z) - Differentiable Uncalibrated Imaging [25.67247660827913]
本稿では,センサ位置や投影角などの測定座標の不確実性に対処する,識別可能なイメージングフレームワークを提案する。
入力座標に対して自然に微分可能な暗黙のニューラルネットワーク、別名ニューラルフィールドを適用する。
測定表現を協調的に適合させ、不確実な測定座標を最適化し、一貫したキャリブレーションを保証する画像再構成を行うため、微分性は鍵となる。
論文 参考訳(メタデータ) (2022-11-18T22:48:09Z) - A Deep Perceptual Measure for Lens and Camera Calibration [35.03926427249506]
従来のマルチイメージキャリブレーション法の代わりに,単一画像から直接カメラキャリブレーションパラメータを推定することを提案する。
大規模なパノラマデータセットから自動的に生成されたサンプルを用いて、このネットワークをトレーニングする。
そこで我々は, カメラキャリブレーションパラメータを補正した3次元物体のリアリズムの判断を参加者に依頼した。
論文 参考訳(メタデータ) (2022-08-25T18:40:45Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Three things everyone should know about Vision Transformers [67.30250766591405]
トランスフォーマーアーキテクチャは コンピュータビジョンにおいて 急速に勢いを増しています
視覚変換器の変種をシンプルかつ容易に実装できる3つの洞察を提供する。
我々は、ImageNet-1kデータセットを用いて、これらの設計選択の影響を評価し、ImageNet-v2テストセットにおける結果を確認した。
論文 参考訳(メタデータ) (2022-03-18T08:23:03Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。