論文の概要: GroupGazer: A Tool to Compute the Gaze per Participant in Groups with
integrated Calibration to Map the Gaze Online to a Screen or Beamer
Projection
- arxiv url: http://arxiv.org/abs/2201.07692v1
- Date: Wed, 19 Jan 2022 16:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 14:45:04.010413
- Title: GroupGazer: A Tool to Compute the Gaze per Participant in Groups with
integrated Calibration to Map the Gaze Online to a Screen or Beamer
Projection
- Title(参考訳): groupgazer: 参加者1人あたりの視線を計算するツールで、オンラインの視線を画面やビームの投影にマッピングするキャリブレーションを統合
- Authors: Wolfgang Fuhl
- Abstract要約: GroupGazerは、グループ全体の視線方向と視線位置を計算するために使用できるツールである。
GroupGazerは画像内のすべての人の視線方向を計算し、これらの視線ベクトルをプロジェクターのような投影にマッピングすることができる。
- 参考スコア(独自算出の注目度): 2.3859169601259342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present GroupGaze. It is a tool that can be used to
calculate the gaze direction and the gaze position of whole groups. GroupGazer
calculates the gaze direction of every single person in the image and allows to
map these gaze vectors to a projection like a projector. In addition to the
person-specific gaze direction, the person affiliation of each gaze vector is
stored based on the position in the image. Also, it is possible to save the
group attention after a calibration. The software is free to use and requires a
simple webcam as well as an NVIDIA GPU and the operating system Windows or
Linux.
- Abstract(参考訳): 本稿では,GroupGazeを紹介する。
集団全体の視線方向と視線位置を計算するための道具である。
GroupGazerは画像内のすべての人の視線方向を計算し、これらの視線ベクトルをプロジェクターのような投影にマッピングすることができる。
人固有の視線方向に加えて、画像内の位置に基づいて、各視線ベクトルの人関連を記憶する。
また、キャリブレーション後のグループ注意を省くこともできる。
このソフトウェアは無料で使用でき、単純なウェブカメラとNVIDIA GPU、オペレーティングシステムのWindowsやLinuxを必要とする。
関連論文リスト
- GazeGen: Gaze-Driven User Interaction for Visual Content Generation [11.03973723295504]
本稿では,ユーザの視線で示される位置の視覚的コンテンツ(画像とビデオ)を生成するユーザインタラクションシステムであるGazeGenを紹介する。
オブジェクト検出と生成AIの高度な技術を使用して、GazeGenは画像オブジェクトの視線制御された画像の追加/削除、再配置、および表面物質の変化を実行し、静的イメージをビデオに変換する。
GazeGenの中心は、281Kパラメータしか持たない超軽量モデルであるDFT Gazeエージェントである。
論文 参考訳(メタデータ) (2024-11-07T00:22:38Z) - DVGaze: Dual-View Gaze Estimation [13.3539097295729]
本稿では、視線推定のためのデュアルビュー視線推定ネットワーク(DV-Gaze)を提案する。
DV-Gazeは、ETH-XGazeとEVEデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-20T16:14:22Z) - Object-aware Gaze Target Detection [14.587595325977583]
本稿では,シーン内の物体を自動的に検出し,頭部と視線・視線・視線を関連づけるトランスフォーマーアーキテクチャを提案する。
本手法は、視線目標検出のための全測定値の最先端結果と、視線対象物の分類と局所化のための平均精度を11-13%改善する。
論文 参考訳(メタデータ) (2023-07-18T22:04:41Z) - Unsupervised High-Resolution Portrait Gaze Correction and Animation [81.19271523855554]
本稿では,高解像度で非拘束なポートレート画像に対する視線補正とアニメーション手法を提案する。
まず、CelebGazeと高解像度のCelebHQGazeという2つの新しいポートレートデータセットを作成します。
本稿では,ガゼ補正モジュールとガゼアニメーションモジュールを用いて,画像の描画問題として視線補正タスクを定式化する。
論文 参考訳(メタデータ) (2022-07-01T08:14:42Z) - GazeOnce: Real-Time Multi-Person Gaze Estimation [18.16091280655655]
外観に基づく視線推定は、単一の画像から3次元視線方向を予測することを目的としている。
近年の深層学習に基づくアプローチは優れた性能を示すが,複数対人視線をリアルタイムに出力することはできない。
画像中の複数の顔に対する視線方向を同時に予測できるGazeOnceを提案する。
論文 参考訳(メタデータ) (2022-04-20T14:21:47Z) - Controllable Continuous Gaze Redirection [47.15883248953411]
制御可能な視線リダイレクトのための新しいフレームワークであるInterpGazeを提案する。
我々のゴールは、ある人物の視線を基準画像に描かれたあらゆる視線方向へとリダイレクトすることである。
提案したInterpGazeは、画像の品質とリダイレクト精度で最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-10-09T11:50:06Z) - Dual In-painting Model for Unsupervised Gaze Correction and Animation in
the Wild [82.42401132933462]
視線角度と頭部ポーズの正確なアノテーションを必要とせずに機能する解を提案する。
我々の手法は3つの新しいモジュールからなる: Gaze Correction Module (GCM)、 Gaze Animation Module (GAM)、 Pretrained Autoencoder Module (PAM)。
論文 参考訳(メタデータ) (2020-08-09T23:14:16Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Coarse-to-Fine Gaze Redirection with Numerical and Pictorial Guidance [74.27389895574422]
本稿では,数値誘導と画像誘導の両方を利用した新しい視線リダイレクトフレームワークを提案する。
提案手法は,画像品質とリダイレクト精度の両方の観点から,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-07T01:17:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。