論文の概要: Resolving Camera Position for a Practical Application of Gaze Estimation
on Edge Devices
- arxiv url: http://arxiv.org/abs/2201.02946v1
- Date: Sun, 9 Jan 2022 07:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 14:44:25.795527
- Title: Resolving Camera Position for a Practical Application of Gaze Estimation
on Edge Devices
- Title(参考訳): エッジデバイスにおける視線推定の実用化のためのカメラ位置の解決
- Authors: Linh Van Ma, Tin Trung Tran, Moongu Jeon
- Abstract要約: ほとんどの視線推定研究は、カメラが完全に視線を捉えている設定条件でのみ機能する。
本稿では,論理カメラの設置位置による視線推定について検討する。
現実的なシナリオを持つ安価なエッジデバイスを使用することで,本研究を実用化する。
- 参考スコア(独自算出の注目度): 6.692686655277163
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Most Gaze estimation research only works on a setup condition that a camera
perfectly captures eyes gaze. They have not literarily specified how to set up
a camera correctly for a given position of a person. In this paper, we carry
out a study on gaze estimation with a logical camera setup position. We further
bring our research in a practical application by using inexpensive edge devices
with a realistic scenario. That is, we first set up a shopping environment
where we want to grasp customers gazing behaviors. This setup needs an optimal
camera position in order to maintain estimation accuracy from existing gaze
estimation research. We then apply the state-of-the-art of few-shot learning
gaze estimation to reduce training sampling in the inference phase. In the
experiment, we perform our implemented research on NVIDIA Jetson TX2 and
achieve a reasonable speed, 12 FPS which is faster compared with our reference
work, without much degradation of gaze estimation accuracy. The source code is
released at https://github.com/linh-gist/GazeEstimationTX2.
- Abstract(参考訳): Gazeの推定研究のほとんどは、カメラが完全に視線を捉えているという設定条件でのみ動作する。
彼らは、人の所定の位置にカメラを正しく設置する方法をリテラルで指定していない。
本稿では,論理的なカメラ設置位置を用いた視線推定について検討する。
さらに,現実的シナリオを用いた安価なエッジデバイスを用いて,本研究を実用化する。
つまり、最初にショッピング環境をセットアップし、顧客が見つめている行動を把握したいのです。
この設定は、既存の視線推定研究から推定精度を維持するために最適なカメラ位置を必要とする。
次に,数発学習視線推定の最先端技術を適用し,推定段階でのトレーニングサンプリングを削減した。
本実験では, NVIDIA Jetson TX2 に関する実装研究を行い, 視線推定精度の劣化を伴わずに, 基準作業よりも高速な 12 FPS を実現した。
ソースコードはhttps://github.com/linh-gist/GazeEstimationTX2で公開されている。
関連論文リスト
- SRPose: Two-view Relative Pose Estimation with Sparse Keypoints [51.49105161103385]
SRPoseは、カメラ・トゥ・ワールドおよびオブジェクト・トゥ・カメラシナリオにおける2ビュー相対ポーズ推定のためのスパースキーポイントベースのフレームワークである。
精度と速度の点で最先端の手法と比較して、競争力や優れた性能を達成する。
さまざまな画像サイズやカメラ固有の機能に対して堅牢であり、低コンピューティングリソースでデプロイすることができる。
論文 参考訳(メタデータ) (2024-07-11T05:46:35Z) - UVAGaze: Unsupervised 1-to-2 Views Adaptation for Gaze Estimation [10.412375913640224]
視線推定のための新しい1-view-to-2-views (1-to-2 view) 適応ソリューションを提案する。
本手法は、フレキシブルに配置されたデュアルカメラに対して、従来の単視点視線推定器に適応する。
実験により、シングルビュー推定器が双対ビューに適応すると、特にクロスデータセット設定において、はるかに高い精度が得られることが示された。
論文 参考訳(メタデータ) (2023-12-25T08:13:28Z) - Semi-Synthetic Dataset Augmentation for Application-Specific Gaze
Estimation [0.3683202928838613]
顔の3次元メッシュを生成し、仮想カメラからのトレーニング画像をアプリケーションに関連する特定の位置と方向でレンダリングする方法を示す。
これにより、視線推定角誤差の平均47%が減少する。
論文 参考訳(メタデータ) (2023-10-27T20:27:22Z) - Object-aware Gaze Target Detection [14.587595325977583]
本稿では,シーン内の物体を自動的に検出し,頭部と視線・視線・視線を関連づけるトランスフォーマーアーキテクチャを提案する。
本手法は、視線目標検出のための全測定値の最先端結果と、視線対象物の分類と局所化のための平均精度を11-13%改善する。
論文 参考訳(メタデータ) (2023-07-18T22:04:41Z) - GoToNet: Fast Monocular Scene Exposure and Exploration [0.6204265638103346]
リアルタイム環境探索のための新しい手法を提案する。
我々の方法は良い戦術的な決定を下すのに一面(イメージ)しか必要としない。
GotoとLookatと呼ばれる画素が特徴である2つの方向予測が,本手法のコアを構成する。
論文 参考訳(メタデータ) (2022-06-13T08:28:31Z) - GazeOnce: Real-Time Multi-Person Gaze Estimation [18.16091280655655]
外観に基づく視線推定は、単一の画像から3次元視線方向を予測することを目的としている。
近年の深層学習に基づくアプローチは優れた性能を示すが,複数対人視線をリアルタイムに出力することはできない。
画像中の複数の顔に対する視線方向を同時に予測できるGazeOnceを提案する。
論文 参考訳(メタデータ) (2022-04-20T14:21:47Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Fast and Accurate Camera Scene Detection on Smartphones [51.424407411660376]
本稿では,11K以上の手動クロール画像を含むカメラシーン検出データセット(CamSDD)を提案する。
本研究では,このデータセット上で上位3の99.5%の精度を示す,効率的かつNPU対応のCNNモデルを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:06:21Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Coarse-to-Fine Gaze Redirection with Numerical and Pictorial Guidance [74.27389895574422]
本稿では,数値誘導と画像誘導の両方を利用した新しい視線リダイレクトフレームワークを提案する。
提案手法は,画像品質とリダイレクト精度の両方の観点から,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-07T01:17:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。