論文の概要: FreeGaze: Resource-efficient Gaze Estimation via Frequency Domain
Contrastive Learning
- arxiv url: http://arxiv.org/abs/2209.06692v1
- Date: Wed, 14 Sep 2022 14:51:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 12:51:11.133497
- Title: FreeGaze: Resource-efficient Gaze Estimation via Frequency Domain
Contrastive Learning
- Title(参考訳): FreeGaze: 周波数領域のコントラスト学習による資源効率のガゼ推定
- Authors: Lingyu Du, Guohao Lan
- Abstract要約: FreeGazeは、教師なしの視線表現学習のためのリソース効率のよいフレームワークである。
我々はFreeGazeが既存の教師付き学習ベースアプローチと同等の視線推定精度を実現できることを示す。
- 参考スコア(独自算出の注目度): 1.240096657086732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaze estimation is of great importance to many scientific fields and daily
applications, ranging from fundamental research in cognitive psychology to
attention-aware mobile systems. While recent advancements in deep learning have
yielded remarkable successes in building highly accurate gaze estimation
systems, the associated high computational cost and the reliance on large-scale
labeled gaze data for supervised learning place challenges on the practical use
of existing solutions. To move beyond these limitations, we present FreeGaze, a
resource-efficient framework for unsupervised gaze representation learning.
FreeGaze incorporates the frequency domain gaze estimation and the contrastive
gaze representation learning in its design. The former significantly alleviates
the computational burden in both system calibration and gaze estimation, and
dramatically reduces the system latency; while the latter overcomes the data
labeling hurdle of existing supervised learning-based counterparts, and ensures
efficient gaze representation learning in the absence of gaze label. Our
evaluation on two gaze estimation datasets shows that FreeGaze can achieve
comparable gaze estimation accuracy with existing supervised learning-based
approach, while enabling up to 6.81 and 1.67 times speedup in system
calibration and gaze estimation, respectively.
- Abstract(参考訳): 視線推定は、認知心理学の基礎研究から注意を意識したモバイルシステムまで、多くの科学分野や日々の応用において非常に重要である。
近年の深層学習の進歩は、高精度な視線推定システムの構築において顕著な成功を収めている一方で、既存のソリューションの実用性に対する教師付き学習場所課題に対する計算コストと大規模ラベル付き視線データへの依存は顕著である。
これらの制限を超えて、教師なしの視線表現学習のためのリソース効率の高いフレームワークFreeGazeを提案する。
FreeGazeは周波数領域の視線推定と対照的な視線表現学習を設計に取り入れている。
前者はシステムキャリブレーションと視線推定の両方の計算負担を大幅に軽減し、システム遅延を劇的に低減し、後者は既存の教師付き学習ベースのデータラベリングハードルを克服し、視線ラベルのない効率的な視線表現学習を保証する。
2つの視線推定データセットを用いて評価したところ,FreeGazeは既存の教師付き学習手法と同等の視線推定精度を達成でき,システムキャリブレーションと視線推定の最大6.81倍と1.67倍の高速化が可能であった。
関連論文リスト
- Modeling State Shifting via Local-Global Distillation for Event-Frame Gaze Tracking [61.44701715285463]
本稿では,イベントデータとフレームデータの両方を用いた受動的視線推定の問題に取り組む。
我々は、現在の状態からいくつかの事前登録されたアンカー状態に移行する状態の定量化として、視線推定を再構成する。
大規模視線推定ネットワークを直接学習する代わりに,地域の専門家グループと学生ネットワークを連携させることにより,一般化能力の向上を図る。
論文 参考訳(メタデータ) (2024-03-31T03:30:37Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - Unsupervised Gaze-aware Contrastive Learning with Subject-specific
Condition [6.547550920819356]
ConGazeは、教師なしの方法で被験者間の一般的な視線認識表現を学習する、対照的な学習ベースのフレームワークである。
視線特性を保存し、視線一貫性を維持するために、視線特異的なデータ拡張を導入する。
我々はまた、共有特徴抽出器に視線認識と汎用表現を学習させる新しい主題条件投影モジュールを考案した。
論文 参考訳(メタデータ) (2023-09-08T09:45:19Z) - Fairness Improves Learning from Noisily Labeled Long-Tailed Data [119.0612617460727]
長い尾とノイズの多いラベル付きデータは、現実世界のアプリケーションに頻繁に現れ、学習に重大な課題を課す。
2つのサブポピュレーション間のパフォーマンスギャップを正規化することから着想を得たFairness Regularizer(FR)を導入する。
導入したフェアネス正則化器は,尾部のサブポピュレーションと全体的な学習性能を向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T03:46:51Z) - LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation [0.0]
本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
論文 参考訳(メタデータ) (2022-09-21T08:05:53Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Challenges and Opportunities in Offline Reinforcement Learning from
Visual Observations [58.758928936316785]
連続的な行動空間を持つ視覚的観察からオフラインの強化学習は未探索のままである。
2つの一般的な視覚に基づくオンライン強化学習アルゴリズムの変更は、既存のオフラインRL法より優れていることを示す。
論文 参考訳(メタデータ) (2022-06-09T22:08:47Z) - Effect Of Personalized Calibration On Gaze Estimation Using
Deep-Learning [10.815594142396497]
我々は畳み込みニューラルネットワークを訓練し、その性能を校正なしで分析する。
この評価は、野生での視線推定において、Deep Learningモデルの性能をキャリブレーションがいかに改善したかを明確にする。
論文 参考訳(メタデータ) (2021-09-27T05:14:12Z) - Weakly-Supervised Physically Unconstrained Gaze Estimation [80.66438763587904]
我々は、人間のインタラクションのビデオから弱教師付き視線推定を行うという未発見の問題に対処する。
本稿では,タスクに特化して設計された新しい損失関数とともに,トレーニングアルゴリズムを提案する。
a)半教師付き視線推定の精度と(b)最先端の物理的に制約のないGaze360視線推定ベンチマーク上でのクロスドメイン一般化の精度を大幅に改善した。
論文 参考訳(メタデータ) (2021-05-20T14:58:52Z) - Appearance-based Gaze Estimation With Deep Learning: A Review and Benchmark [14.306488668615883]
本稿では,ディープラーニングを用いた外見に基づく視線推定手法の体系的レビューを行う。
顔/目の検出,データ修正,2D/3D視線変換,視線原点変換など,データ前処理と後処理の方法を要約する。
論文 参考訳(メタデータ) (2021-04-26T15:53:03Z) - Integrating Human Gaze into Attention for Egocentric Activity
Recognition [40.517438760096056]
本研究では,人間の視線を時間的注意に組み込むことにより,自我中心の行動認識を実現するための効果的な確率的アプローチを提案する。
位置は固定点を不確かさをモデル化するために構造化された離散潜在変数として表現する。
予測された視線位置は、認識性能を向上させるための情報的注意手段を提供するために使用される。
論文 参考訳(メタデータ) (2020-11-08T08:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。