論文の概要: LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation
- arxiv url: http://arxiv.org/abs/2209.10171v1
- Date: Wed, 21 Sep 2022 08:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 16:26:46.356944
- Title: LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation
- Title(参考訳): LatentGaze: Gaze-Aware Analytic Latent Code Manipulationによるドメイン間ギャップ推定
- Authors: Isack Lee, Jun-Seok Yun, Hee Hyeon Kim, Youngju Na, Seok Bong Yoo
- Abstract要約: 本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although recent gaze estimation methods lay great emphasis on attentively
extracting gaze-relevant features from facial or eye images, how to define
features that include gaze-relevant components has been ambiguous. This
obscurity makes the model learn not only gaze-relevant features but also
irrelevant ones. In particular, it is fatal for the cross-dataset performance.
To overcome this challenging issue, we propose a gaze-aware analytic
manipulation method, based on a data-driven approach with generative
adversarial network inversion's disentanglement characteristics, to selectively
utilize gaze-relevant features in a latent code. Furthermore, by utilizing
GAN-based encoder-generator process, we shift the input image from the target
domain to the source domain image, which a gaze estimator is sufficiently
aware. In addition, we propose gaze distortion loss in the encoder that
prevents the distortion of gaze information. The experimental results
demonstrate that our method achieves state-of-the-art gaze estimation accuracy
in a cross-domain gaze estimation tasks. This code is available at
https://github.com/leeisack/LatentGaze/.
- Abstract(参考訳): 近年の視線推定法は,視線関連特徴を顔画像や眼画像から注意深く抽出することに重点を置いているが,視線関連成分を含む特徴をどう定義するかは曖昧である。
この難易度により、モデルは視線関連特徴だけでなく、無関係特徴も学習できる。
特に、クロスデータセットのパフォーマンスには致命的です。
本稿では,この課題を克服するために,生成型逆ネットワークインバージョンを用いたデータ駆動アプローチに基づく視線認識解析手法を提案し,潜在コードにおける視線関連特徴を選択的に活用する。
さらに、ganベースのエンコーダ生成プロセスを利用して、入力画像を対象領域から視線推定器が十分に認識しているソース領域画像にシフトする。
また,エンコーダにおける視線情報の歪みを防止するための視線歪み損失を提案する。
実験結果から,領域間視線推定タスクにおける最先端視線推定精度が得られた。
このコードはhttps://github.com/leeisack/LatentGaze/で入手できる。
関連論文リスト
- Gazing Into Missteps: Leveraging Eye-Gaze for Unsupervised Mistake Detection in Egocentric Videos of Skilled Human Activities [25.049754180292034]
我々は、視線信号の解析を通して、自我中心ビデオにおける教師なし誤り検出の課題に対処する。
眼球運動が被写体操作活動に密接に従うという観察に基づいて,視線信号が誤検出をどの程度支援できるかを評価する。
予測された視線軌道と観測された視線軌道の矛盾は、誤りを特定する指標として機能する。
論文 参考訳(メタデータ) (2024-06-12T16:29:45Z) - Learning Gaze-aware Compositional GAN [30.714854907472333]
ラベル付きおよびラベルなしデータソースの利点を活用して、注釈付き視線データを作成するための生成フレームワークを提案する。
本稿では,ETH-XGazeデータセットにおける領域内画像拡張と,CelebAMask-HQデータセット領域における領域間画像拡張による視線推定トレーニングの有効性を示す。
論文 参考訳(メタデータ) (2024-05-31T07:07:54Z) - Modeling State Shifting via Local-Global Distillation for Event-Frame Gaze Tracking [61.44701715285463]
本稿では,イベントデータとフレームデータの両方を用いた受動的視線推定の問題に取り組む。
我々は、現在の状態からいくつかの事前登録されたアンカー状態に移行する状態の定量化として、視線推定を再構成する。
大規模視線推定ネットワークを直接学習する代わりに,地域の専門家グループと学生ネットワークを連携させることにより,一般化能力の向上を図る。
論文 参考訳(メタデータ) (2024-03-31T03:30:37Z) - Geo-Localization Based on Dynamically Weighted Factor-Graph [74.75763142610717]
特徴に基づくジオローカライゼーションは、航空画像から抽出された特徴と車両のセンサーによって検出された特徴とを関連付けることに依存する。
これにより、ランドマークの種類は両方のソースから観測できなければならない。
車両軌道推定のための動的重み付き因子グラフモデルを提案する。
論文 参考訳(メタデータ) (2023-11-13T12:44:14Z) - Bridging the Gap: Gaze Events as Interpretable Concepts to Explain Deep
Neural Sequence Models [0.7829352305480283]
本研究では,固定およびサケードに確立された視線事象検出アルゴリズムを用いる。
これらの事象が与える影響を定量的に評価し,その概念的影響を判断する。
論文 参考訳(メタデータ) (2023-04-12T10:15:31Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - Jitter Does Matter: Adapting Gaze Estimation to New Domains [12.482427155726413]
本稿では、視線領域適応タスクの分析と最適化に、視線ジッタを活用することを提案する。
高周波成分(HFC)がジッタに繋がる重要な因子であることがわかった。
我々は、オリジナルのデータと摂動データの間に類似した表現を得るようモデルに促すために、対照的な学習を採用する。
論文 参考訳(メタデータ) (2022-10-05T08:20:41Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Weakly-Supervised Physically Unconstrained Gaze Estimation [80.66438763587904]
我々は、人間のインタラクションのビデオから弱教師付き視線推定を行うという未発見の問題に対処する。
本稿では,タスクに特化して設計された新しい損失関数とともに,トレーニングアルゴリズムを提案する。
a)半教師付き視線推定の精度と(b)最先端の物理的に制約のないGaze360視線推定ベンチマーク上でのクロスドメイン一般化の精度を大幅に改善した。
論文 参考訳(メタデータ) (2021-05-20T14:58:52Z) - PureGaze: Purifying Gaze Feature for Generalizable Gaze Estimation [12.076469954457007]
未知対象領域のクロスドメイン視線推定における領域一般化問題に取り組む。
具体的には,視線特徴の浄化による領域一般化を実現する。
視線を浄化するためのプラグアンドプレイ自己対向フレームワークを設計します。
論文 参考訳(メタデータ) (2021-03-24T13:22:00Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。