論文の概要: Jitter Does Matter: Adapting Gaze Estimation to New Domains
- arxiv url: http://arxiv.org/abs/2210.02082v1
- Date: Wed, 5 Oct 2022 08:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:09:59.340172
- Title: Jitter Does Matter: Adapting Gaze Estimation to New Domains
- Title(参考訳): Jitterが重要:新しいドメインにゲイズ推定を適用する
- Authors: Ruicong Liu, Yiwei Bao, Mingjie Xu, Haofei Wang, Yunfei Liu, Feng Lu
- Abstract要約: 本稿では、視線領域適応タスクの分析と最適化に、視線ジッタを活用することを提案する。
高周波成分(HFC)がジッタに繋がる重要な因子であることがわかった。
我々は、オリジナルのデータと摂動データの間に類似した表現を得るようモデルに促すために、対照的な学習を採用する。
- 参考スコア(独自算出の注目度): 12.482427155726413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have demonstrated superior performance on
appearance-based gaze estimation tasks. However, due to variations in person,
illuminations, and background, performance degrades dramatically when applying
the model to a new domain. In this paper, we discover an interesting gaze
jitter phenomenon in cross-domain gaze estimation, i.e., the gaze predictions
of two similar images can be severely deviated in target domain. This is
closely related to cross-domain gaze estimation tasks, but surprisingly, it has
not been noticed yet previously. Therefore, we innovatively propose to utilize
the gaze jitter to analyze and optimize the gaze domain adaptation task. We
find that the high-frequency component (HFC) is an important factor that leads
to jitter. Based on this discovery, we add high-frequency components to input
images using the adversarial attack and employ contrastive learning to
encourage the model to obtain similar representations between original and
perturbed data, which reduces the impacts of HFC. We evaluate the proposed
method on four cross-domain gaze estimation tasks, and experimental results
demonstrate that it significantly reduces the gaze jitter and improves the gaze
estimation performance in target domains.
- Abstract(参考訳): ディープニューラルネットワークは、外観に基づく視線推定タスクにおいて優れた性能を示している。
しかし、人、照度、背景の変化により、新しいドメインにモデルを適用する場合、パフォーマンスは劇的に低下する。
本稿では,異なる領域の視線推定において興味深い視線ジッタ現象,すなわち2つの類似画像の視線予測が対象領域において著しくずれることを見いだす。
これはドメイン間視線推定タスクと密接に関連しているが、驚くべきことに、これまでは気付かなかった。
そこで本稿では,ガウン領域適応タスクの分析と最適化にガウンジジッタを利用することを革新的に提案する。
高周波成分(HFC)がジッタに繋がる重要な因子であることがわかった。
この発見に基づいて, 逆方向攻撃を用いた画像入力に高周波数成分を加え, コントラスト学習を用いて, モデルが元のデータと摂動データの類似表現を得るように促し, HFCの影響を低減する。
提案手法を4つの領域間視線推定タスクで評価し、実験結果から視線ジッタを著しく低減し、対象領域における視線推定性能を向上させることを示した。
関連論文リスト
- Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Contrastive Weighted Learning for Near-Infrared Gaze Estimation [0.228438857884398]
コントラスト学習を用いた近赤外画像による視線推定のための新しいフレームワークであるGazeCWLを提案する。
我々のモデルは、赤外線画像に基づく視線推定において、以前の領域一般化モデルよりも優れている。
論文 参考訳(メタデータ) (2022-11-06T10:03:23Z) - LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation [0.0]
本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
論文 参考訳(メタデータ) (2022-09-21T08:05:53Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Unsupervised Compound Domain Adaptation for Face Anti-Spoofing [74.6122128643823]
顔認証システムを実環境で堅牢化することを目的とした顔認証対策の課題に対処します。
ソースモデルを対象ドメインに適応させるメモリ拡張手法を,ドメインに意識して提案する。
提案手法は,複数の新しいスプーフ型からなる複合ターゲットドメインに適応する。
論文 参考訳(メタデータ) (2021-05-18T12:08:07Z) - An Adversarial Human Pose Estimation Network Injected with Graph
Structure [75.08618278188209]
本稿では,いくつかの関節が見えない場合に,可視関節の局所化精度を向上させるために,新しいGAN(Generative Adversarial Network)を設計する。
ネットワークは、2つのシンプルで効率的なモジュール、カスケード機能ネットワーク(CFN)とグラフ構造ネットワーク(GSN)で構成されています。
論文 参考訳(メタデータ) (2021-03-29T12:07:08Z) - PureGaze: Purifying Gaze Feature for Generalizable Gaze Estimation [12.076469954457007]
未知対象領域のクロスドメイン視線推定における領域一般化問題に取り組む。
具体的には,視線特徴の浄化による領域一般化を実現する。
視線を浄化するためのプラグアンドプレイ自己対向フレームワークを設計します。
論文 参考訳(メタデータ) (2021-03-24T13:22:00Z) - Vulnerability of Appearance-based Gaze Estimation [16.0559382707645]
外観に基づく視線推定は深層学習による大幅な改善を達成した。
本稿では,外観に基づく視線推定の脆弱性について検討する。
そこで,CA-Netは,4つの人気視線推定ネットワークにおいて,攻撃に対する優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-03-24T12:19:59Z) - Domain Adaptation Gaze Estimation by Embedding with Prediction
Consistency [10.246471430786244]
本稿では,ドメイン適応型視線推定のための教師なし手法を提案する。
我々はソース・ギャンブルを用いて、各ターゲット領域の予測に対して、視線空間に局所線型表現を形成する。
同じ線形結合を埋め込み空間に印加し、対象領域のサンプルに対して仮説埋め込みを生成する。
論文 参考訳(メタデータ) (2020-11-15T13:33:43Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。