論文の概要: Adaptive Feature Fusion Network for Gaze Tracking in Mobile Tablets
- arxiv url: http://arxiv.org/abs/2103.11119v1
- Date: Sat, 20 Mar 2021 07:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:34:37.834483
- Title: Adaptive Feature Fusion Network for Gaze Tracking in Mobile Tablets
- Title(参考訳): モバイルタブレットにおける視線追跡のための適応型特徴融合ネットワーク
- Authors: Yiwei Bao, Yihua Cheng, Yunfei Liu and Feng Lu
- Abstract要約: 本稿では,モバイルタブレットで視線追跡を行う適応型機能融合ネットワーク(aff-net)を提案する。
Squeeze-and-Excitation 層を用いて外観の類似性に応じて2眼特徴を適応的に融合する。
GazeCaptureとMPIIFaceGazeのデータセットによる実験により,提案手法の性能は一貫して向上した。
- 参考スコア(独自算出の注目度): 19.739595664816164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many multi-stream gaze estimation methods have been proposed. They
estimate gaze from eye and face appearances and achieve reasonable accuracy.
However, most of the methods simply concatenate the features extracted from eye
and face appearance. The feature fusion process has been ignored. In this
paper, we propose a novel Adaptive Feature Fusion Network (AFF-Net), which
performs gaze tracking task in mobile tablets. We stack two-eye feature maps
and utilize Squeeze-and-Excitation layers to adaptively fuse two-eye features
according to their similarity on appearance. Meanwhile, we also propose
Adaptive Group Normalization to recalibrate eye features with the guidance of
facial feature. Extensive experiments on both GazeCapture and MPIIFaceGaze
datasets demonstrate consistently superior performance of the proposed method.
- Abstract(参考訳): 近年,複数ストリームの視線推定手法が提案されている。
彼らは目と顔の外観から視線を推定し、妥当な精度を達成する。
しかし、ほとんどの方法は単に目と顔の外観から抽出された特徴を結合するだけである。
機能融合プロセスは無視されている。
本稿では,モバイルタブレットにおける視線追跡タスクを実行する新しいAdaptive Feature Fusion Network (AFF-Net)を提案する。
我々は2眼特徴写像を積み重ね,Squeeze-and-Excitation 層を用いて外観上の類似性に応じて2眼特徴を適応的に融合させる。
また,顔特徴の指導により眼特徴を再調整するための適応型群正規化を提案する。
GazeCaptureとMPIIFaceGazeの両方のデータセットに対する大規模な実験により,提案手法の性能は一貫して向上した。
関連論文リスト
- Merging Multiple Datasets for Improved Appearance-Based Gaze Estimation [10.682719521609743]
2段階のTransformer-based Gaze-Feature Fusion (TTGF) 法では、トランスフォーマーを使用して、両眼と顔の情報を別々にマージし、両眼にマージする。
提案手法は,各データセットにGaze Adaption Moduleを適用して,単一の共有推定器から推定した推定値を補正することにより,アノテーションの不一致を処理する。
論文 参考訳(メタデータ) (2024-09-02T02:51:40Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - Rotation-Constrained Cross-View Feature Fusion for Multi-View
Appearance-based Gaze Estimation [16.43119580796718]
本研究は、一般化可能な多視点視線推定タスクと、この問題に対処するためのクロスビュー特徴融合法を提案する。
ペア画像に加えて,2台のカメラ間の相対回転行列を付加入力とする。
提案するネットワークは,相対回転を制約として,回転可能な特徴表現を抽出することを学ぶ。
論文 参考訳(メタデータ) (2023-05-22T04:29:34Z) - Multimodal Adaptive Fusion of Face and Gait Features using Keyless
attention based Deep Neural Networks for Human Identification [67.64124512185087]
歩行のような軟式生体認証は、人物認識や再識別といった監視作業において顔に広く使われている。
本稿では,キーレス注意深層ニューラルネットワークを活用することで,歩行と顔のバイオメトリック・キューを動的に組み込むための適応型マルチバイオメトリック・フュージョン戦略を提案する。
論文 参考訳(メタデータ) (2023-03-24T05:28:35Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - L2CS-Net: Fine-Grained Gaze Estimation in Unconstrained Environments [2.5234156040689237]
制約のない環境での視線予測のための頑健なCNNモデルを提案する。
我々は、ネットワーク学習を改善し、一般化を高めるために、各角度に2つの同一の損失を用いる。
提案モデルでは,MPIIGazeデータセットとGaze360データセットを用いて3.92degと10.41degの最先端精度を実現する。
論文 参考訳(メタデータ) (2022-03-07T12:35:39Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Stochastic Layers in Vision Transformers [85.38733795180497]
視覚変換器の完全な層を導入し,性能を著しく低下させることなく実現した。
この追加により、視覚機能の堅牢性が向上し、プライバシーが強化される。
私たちの機能は3つの異なるアプリケーション、すなわち、敵の堅牢性、ネットワークキャリブレーション、機能プライバシに使用しています。
論文 参考訳(メタデータ) (2021-12-30T16:07:59Z) - Self-Learning Transformations for Improving Gaze and Head Redirection [49.61091281780071]
視線や頭部方向の角度をきめ細かな制御で高品質な画像を生成できる新しい顔画像生成モデルを提案する。
これは、視線やヘッドオリエンテーション、照明、色合いなど、多くの外見上の要因を解消する必要がある。
タスク非関連要因の明示的解消は、視線と頭部の向きのより正確なモデリングをもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-23T11:18:37Z) - A Coarse-to-Fine Adaptive Network for Appearance-Based Gaze Estimation [24.8796573846653]
本稿では、顔画像から基本的な視線方向を推定し、それに対応する残差を眼画像から予測して精査する粗大な戦略を提案する。
我々は,粗大な適応ネットワークであるCA-Netを構築し,MPIIGazeとEyeDiapの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-01-01T10:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。