論文の概要: Learning to Detect Head Movement in Unconstrained Remote Gaze Estimation
in the Wild
- arxiv url: http://arxiv.org/abs/2004.03737v1
- Date: Tue, 7 Apr 2020 22:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 23:41:19.924694
- Title: Learning to Detect Head Movement in Unconstrained Remote Gaze Estimation
in the Wild
- Title(参考訳): 野生における無拘束遠隔視線推定における頭部運動検出の学習
- Authors: Zhecan Wang, Jian Zhao, Cheng Lu, Han Huang, Fan Yang, Lianji Li,
Yandong Guo
- Abstract要約: 本稿では,視線推定に異なるレベルの頭部表現をより堅牢に組み込むことができるエンドツーエンドの視線推定手法を提案する。
提案手法は,画像品質の低い実世界のシナリオ,照明の異なるシナリオ,直接目的情報を利用できないシナリオに一般化することができる。
- 参考スコア(独自算出の注目度): 19.829721663742124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unconstrained remote gaze estimation remains challenging mostly due to its
vulnerability to the large variability in head-pose. Prior solutions struggle
to maintain reliable accuracy in unconstrained remote gaze tracking. Among
them, appearance-based solutions demonstrate tremendous potential in improving
gaze accuracy. However, existing works still suffer from head movement and are
not robust enough to handle real-world scenarios. Especially most of them study
gaze estimation under controlled scenarios where the collected datasets often
cover limited ranges of both head-pose and gaze which introduces further bias.
In this paper, we propose novel end-to-end appearance-based gaze estimation
methods that could more robustly incorporate different levels of head-pose
representations into gaze estimation. Our method could generalize to real-world
scenarios with low image quality, different lightings and scenarios where
direct head-pose information is not available. To better demonstrate the
advantage of our methods, we further propose a new benchmark dataset with the
most rich distribution of head-gaze combination reflecting real-world
scenarios. Extensive evaluations on several public datasets and our own dataset
demonstrate that our method consistently outperforms the state-of-the-art by a
significant margin.
- Abstract(参考訳): 制約のない遠隔視線推定は、主に頭部の大きな変動に対する脆弱性のため、依然として困難である。
以前のソリューションは、制約のないリモート視線追跡において、信頼できる精度を維持するのに苦労している。
その中でも外見に基づくソリューションは、視線精度を向上する大きな可能性を示している。
しかし、既存の作品はまだ頭の動きに苦しめられており、現実世界のシナリオをうまく処理できない。
特に,収集したデータセットが頭部と視線の両方の限られた範囲をカバーし,さらなるバイアスをもたらすような,制御されたシナリオ下での視線推定について研究している。
本稿では,異なるレベルの頭部表現をより堅牢に視線推定に組み込むことのできる,エンドツーエンドの視線推定手法を提案する。
提案手法は, 画像品質の低さ, 照明の異なる実世界シナリオ, 直接ヘッドポジション情報が得られないシナリオに一般化することができる。
さらに,本手法の利点をよりよく示すために,実世界のシナリオを反映したヘッド・ゲイズ・コンビネーションの最もリッチな分布を示すベンチマークデータセットを提案する。
いくつかの公開データセットと独自のデータセットに対する広範囲な評価は、我々の手法が最先端の技術を一貫して大幅に上回っていることを示している。
関連論文リスト
- A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Semi-Supervised Unconstrained Head Pose Estimation in the Wild [60.08319512840091]
本研究では,最初の半教師なしヘッドポーズ推定手法であるSemiUHPEを提案する。
本手法は,野生頭部のアスペクト比不変収穫が,それまでのランドマークベースのアフィンアライメントよりも優れているという観測に基づいている。
実験とアブレーション研究は、SemiUHPEが既存の手法を公開ベンチマークで大きく上回っていることを示している。
論文 参考訳(メタデータ) (2024-04-03T08:01:00Z) - Latent Embedding Clustering for Occlusion Robust Head Pose Estimation [7.620379605206596]
頭部ポーズ推定は、幅広い応用において有用であることから、コンピュータビジョンにおいて重要な研究領域となっている。
この分野で最も難しい課題の1つは、現実世界のシナリオで頻繁に発生するヘッドオクルージョンの管理である。
我々は,現実の頭部閉塞のシナリオにおいて堅牢な,新規で効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-29T15:57:38Z) - Towards Robust and Accurate Visual Prompting [11.918195429308035]
本研究では,ロバストモデルから派生した視覚的プロンプトが,一般化性能の低下に悩まされながら,ロバスト性を継承できるかどうかを検討する。
本稿では,PBL(Prompt Boundary Loose)と呼ばれる新しい手法を提案する。
本研究は普遍的であり,提案手法の意義を実証するものである。
論文 参考訳(メタデータ) (2023-11-18T07:00:56Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - Weakly-Supervised Physically Unconstrained Gaze Estimation [80.66438763587904]
我々は、人間のインタラクションのビデオから弱教師付き視線推定を行うという未発見の問題に対処する。
本稿では,タスクに特化して設計された新しい損失関数とともに,トレーニングアルゴリズムを提案する。
a)半教師付き視線推定の精度と(b)最先端の物理的に制約のないGaze360視線推定ベンチマーク上でのクロスドメイン一般化の精度を大幅に改善した。
論文 参考訳(メタデータ) (2021-05-20T14:58:52Z) - SuctionNet-1Billion: A Large-Scale Benchmark for Suction Grasping [47.221326169627666]
吸引つかみのシール形成とレンチ抵抗を解析的に評価する新しい物理モデルを提案する。
現実世界の混乱したシナリオで収集された大規模データセットにアノテーションを生成するために、2段階の手法が採用されている。
連続運転空間における吸入ポーズを評価するための標準オンライン評価システムを提案する。
論文 参考訳(メタデータ) (2021-03-23T05:02:52Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。