論文の概要: Gaze Estimation with an Ensemble of Four Architectures
- arxiv url: http://arxiv.org/abs/2107.01980v1
- Date: Mon, 5 Jul 2021 12:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 14:58:05.251989
- Title: Gaze Estimation with an Ensemble of Four Architectures
- Title(参考訳): 4つのアーキテクチャの集合による注視推定
- Authors: Xin Cai, Boyu Chen, Jiabei Zeng, Jiajun Zhang, Yunjia Sun, Xiao Wang,
Zhilong Ji, Xiao Liu, Xilin Chen, Shiguang Shan
- Abstract要約: 我々は、4つの異なるネットワークアーキテクチャを採用する複数の視線推定器を訓練する。
最適な6つの推定器を選択し、それらの予測を線形結合でアンサンブルする。
ETH-XGazeコンペティションでは、ETH-XGazeテストセットで平均3.11円の角度誤差を達成した。
- 参考スコア(独自算出の注目度): 116.53389064096139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a method for gaze estimation according to face images. We
train several gaze estimators adopting four different network architectures,
including an architecture designed for gaze estimation (i.e.,iTracker-MHSA) and
three originally designed for general computer vision tasks(i.e., BoTNet,
HRNet, ResNeSt). Then, we select the best six estimators and ensemble their
predictions through a linear combination. The method ranks the first on the
leader-board of ETH-XGaze Competition, achieving an average angular error of
$3.11^{\circ}$ on the ETH-XGaze test set.
- Abstract(参考訳): 本稿では,顔画像による視線推定手法を提案する。
我々は,視線推定用に設計されたアーキテクチャ(itracker-mhsa)と汎用コンピュータビジョンタスク(botnet,hrnet,resnest)を含む,4つの異なるネットワークアーキテクチャを採用する視線推定器をトレーニングした。
次に、最適な6つの推定器を選択し、それらの予測を線形結合でアンサンブルする。
この方法はeth-xgazeコンペティションのリーダーボードで最初にランク付けされ、eth-xgazeテストセットで平均角誤差が3.11^{\circ}$となった。
関連論文リスト
- 4D ASR: Joint Beam Search Integrating CTC, Attention, Transducer, and Mask Predict Decoders [53.297697898510194]
我々は、4つのデコーダが同一のエンコーダを共有する共同モデリング手法を提案し、これを4Dモデリングと呼ぶ。
4Dモデルを効率的に訓練するために,マルチタスク学習を安定化させる2段階のトレーニング戦略を導入する。
さらに,3つのデコーダを組み合わせることで,新しい1パスビーム探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-05T05:18:20Z) - CrossGaze: A Strong Method for 3D Gaze Estimation in the Wild [4.089889918897877]
我々は、視線推定のための強力なベースラインであるCrossGazeを提案する。
我々のモデルはいくつかの最先端手法を超え、平均角誤差は9.94度である。
提案手法は,視線推定における将来の研究開発の基盤となる。
論文 参考訳(メタデータ) (2024-02-13T09:20:26Z) - 360 Layout Estimation via Orthogonal Planes Disentanglement and Multi-view Geometric Consistency Perception [56.84921040837699]
既存のパノラマ配置推定ソリューションは、垂直圧縮されたシーケンスから部屋の境界を復元し、不正確な結果をもたらす傾向にある。
そこで本稿では,直交平面不整合ネットワーク(DOPNet)を提案し,あいまいな意味論を識別する。
また,水平深度と比表現に適した教師なし適応手法を提案する。
本手法は,単分子配置推定と多視点レイアウト推定の両タスクにおいて,他のSoTAモデルよりも優れる。
論文 参考訳(メタデータ) (2023-12-26T12:16:03Z) - Investigation of Architectures and Receptive Fields for Appearance-based
Gaze Estimation [29.154335016375367]
本稿では、ResNetアーキテクチャのいくつかの単純なパラメータをチューニングすることで、既存のガンマ推定タスクの最先端手法よりも優れていることを示す。
ETH-XGazeが3.64、MPIIFaceGazeが4.50、Gaze360が9.13の3つのデータセットで最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-08-18T14:41:51Z) - NeRF-Gaze: A Head-Eye Redirection Parametric Model for Gaze Estimation [37.977032771941715]
本稿では,ニューラルラジアンス場に基づく新しい頭部方向パラメトリックモデルを提案する。
我々のモデルは、顔と目を切り離して、別々のニューラルレンダリングを行うことができる。
顔、アイデンティティ、照明、視線方向の属性を別々に制御する目的を達成することができる。
論文 参考訳(メタデータ) (2022-12-30T13:52:28Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - RINDNet: Edge Detection for Discontinuity in Reflectance, Illumination,
Normal and Depth [70.25160895688464]
我々は、4種類のエッジを共同で検出する新しいニューラルネットワークソリューション RINDNet を提案する。
RINDNetはそれぞれの表現を効果的に学習し、3段階で動作する。
我々の実験では、RINDNetは最先端の手法と比較して有望な結果が得られる。
論文 参考訳(メタデータ) (2021-08-02T03:30:01Z) - LNSMM: Eye Gaze Estimation With Local Network Share Multiview Multitask [7.065909514483728]
本稿では,視線点と視線方向を同時に推定する新しい手法を提案する。
本手法は,視線点と視線方向の2つの指標について,現在主流の手法であることを示す。
論文 参考訳(メタデータ) (2021-01-18T15:14:24Z) - ETH-XGaze: A Large Scale Dataset for Gaze Estimation under Extreme Head
Pose and Gaze Variation [52.5465548207648]
ETH-XGazeは100万以上の高解像度画像からなる新しい視線推定データセットである。
我々のデータセットは、異なる頭部ポーズと視線角度で視線推定手法のロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2020-07-31T04:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。