論文の概要: PureGaze: Purifying Gaze Feature for Generalizable Gaze Estimation
- arxiv url: http://arxiv.org/abs/2103.13173v1
- Date: Wed, 24 Mar 2021 13:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:56:59.926707
- Title: PureGaze: Purifying Gaze Feature for Generalizable Gaze Estimation
- Title(参考訳): PureGaze: 一般化可能な Gaze 推定のための Gaze 機能
- Authors: Yihua Cheng, Yiwei Bao, Feng Lu
- Abstract要約: 未知対象領域のクロスドメイン視線推定における領域一般化問題に取り組む。
具体的には,視線特徴の浄化による領域一般化を実現する。
視線を浄化するためのプラグアンドプレイ自己対向フレームワークを設計します。
- 参考スコア(独自算出の注目度): 12.076469954457007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaze estimation methods learn eye gaze from facial features. However, among
rich information in the facial image, real gaze-relevant features only
correspond to subtle changes in eye region, while other gaze-irrelevant
features like illumination, personal appearance and even facial expression may
affect the learning in an unexpected way. This is a major reason why existing
methods show significant performance degradation in cross-domain/dataset
evaluation. In this paper, we tackle the domain generalization problem in
cross-domain gaze estimation for unknown target domains. To be specific, we
realize the domain generalization by gaze feature purification. We eliminate
gaze-irrelevant factors such as illumination and identity to improve the
cross-dataset performance without knowing the target dataset. We design a
plug-and-play self-adversarial framework for the gaze feature purification. The
framework enhances not only our baseline but also existing gaze estimation
methods directly and significantly. Our method achieves the state-of-the-art
performance in different benchmarks. Meanwhile, the purification is easily
explainable via visualization.
- Abstract(参考訳): 視線推定法は顔の特徴から視線を学習する。
しかし、顔画像の豊かな情報のうち、実際の視線関連特徴は目領域の微妙な変化にのみ対応し、照明、個人的外観、さらには表情など他の視線関連特徴は予期せぬ方法で学習に影響を与える可能性がある。
これは、既存メソッドがクロスドメイン/データセット評価において大幅なパフォーマンス劣化を示す大きな理由である。
本稿では,未知対象領域に対するクロスドメイン視線推定における領域一般化問題に取り組む。
具体的には,視線特徴の浄化による領域一般化を実現する。
照度やアイデンティティといった視線関係の要因を取り除き、対象のデータセットを知らずにクロスデータセットのパフォーマンスを向上させる。
我々は視線特徴浄化のためのプラグ・アンド・プレイ・セルフ・アドバーサル・フレームワークを設計した。
本フレームワークは,我々の基準線だけでなく,既存の視線推定手法を直接的かつ著しく拡張する。
提案手法は,異なるベンチマークにおける最先端性能を実現する。
一方、精製は可視化により容易に説明できる。
関連論文リスト
- CLIP-Gaze: Towards General Gaze Estimation via Visual-Linguistic Model [13.890404285565225]
本稿では、事前学習された視覚言語モデルを用いて、その伝達可能な知識を活用するCLIP-Gazeという新しいフレームワークを提案する。
我々のフレームワークは、視線推定タスクに視覚・言語間の相互モダリティアプローチを利用した最初のものである。
論文 参考訳(メタデータ) (2024-03-08T07:37:21Z) - Keypoint Description by Symmetry Assessment -- Applications in
Biometrics [49.547569925407814]
有限展開によりキーポイント周辺の近傍を記述するモデルに基づく特徴抽出器を提案する。
そのような関数の等曲線は、原点(キーポイント)と推定されたパラメータがよく定義された幾何学的解釈を持つように、高度に対称な w.r.t である。
論文 参考訳(メタデータ) (2023-11-03T00:49:25Z) - Bridging the Gap: Gaze Events as Interpretable Concepts to Explain Deep
Neural Sequence Models [0.7829352305480283]
本研究では,固定およびサケードに確立された視線事象検出アルゴリズムを用いる。
これらの事象が与える影響を定量的に評価し,その概念的影響を判断する。
論文 参考訳(メタデータ) (2023-04-12T10:15:31Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Jitter Does Matter: Adapting Gaze Estimation to New Domains [12.482427155726413]
本稿では、視線領域適応タスクの分析と最適化に、視線ジッタを活用することを提案する。
高周波成分(HFC)がジッタに繋がる重要な因子であることがわかった。
我々は、オリジナルのデータと摂動データの間に類似した表現を得るようモデルに促すために、対照的な学習を採用する。
論文 参考訳(メタデータ) (2022-10-05T08:20:41Z) - LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation [0.0]
本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
論文 参考訳(メタデータ) (2022-09-21T08:05:53Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Goal-Oriented Gaze Estimation for Zero-Shot Learning [62.52340838817908]
識別的属性の局在性を改善するために, 目標指向視線推定モジュール(GEM)を提案する。
属性記述に導かれた新しい物体を認識する視覚注意領域を得るために,実際の人間の視線位置を予測することを目的とする。
この研究は、高レベルのコンピュータビジョンタスクに人間の視線データセットと自動視線推定アルゴリズムを集めることの有望な利点を示しています。
論文 参考訳(メタデータ) (2021-03-05T02:14:57Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Integrating Human Gaze into Attention for Egocentric Activity
Recognition [40.517438760096056]
本研究では,人間の視線を時間的注意に組み込むことにより,自我中心の行動認識を実現するための効果的な確率的アプローチを提案する。
位置は固定点を不確かさをモデル化するために構造化された離散潜在変数として表現する。
予測された視線位置は、認識性能を向上させるための情報的注意手段を提供するために使用される。
論文 参考訳(メタデータ) (2020-11-08T08:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。