論文の概要: It's Written All Over Your Face: Full-Face Appearance-Based Gaze
Estimation
- arxiv url: http://arxiv.org/abs/1611.08860v4
- Date: Tue, 16 May 2023 10:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 20:41:00.748707
- Title: It's Written All Over Your Face: Full-Face Appearance-Based Gaze
Estimation
- Title(参考訳): 顔全体に書いてある:全顔の外観に基づく視線推定
- Authors: Xucong Zhang, Yusuke Sugano, Mario Fritz, Andreas Bulling
- Abstract要約: 顔の全体像のみを入力とする外観に基づく手法を提案する。
本手法は,特徴写像に空間重みを印加した畳み込みニューラルネットワークを用いて顔画像の符号化を行う。
本手法は2次元視線と3次元視線の両方で技量を有意に上回ることを示す。
- 参考スコア(独自算出の注目度): 82.16380486281108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye gaze is an important non-verbal cue for human affect analysis. Recent
gaze estimation work indicated that information from the full face region can
benefit performance. Pushing this idea further, we propose an appearance-based
method that, in contrast to a long-standing line of work in computer vision,
only takes the full face image as input. Our method encodes the face image
using a convolutional neural network with spatial weights applied on the
feature maps to flexibly suppress or enhance information in different facial
regions. Through extensive evaluation, we show that our full-face method
significantly outperforms the state of the art for both 2D and 3D gaze
estimation, achieving improvements of up to 14.3% on MPIIGaze and 27.7% on
EYEDIAP for person-independent 3D gaze estimation. We further show that this
improvement is consistent across different illumination conditions and gaze
directions and particularly pronounced for the most challenging extreme head
poses.
- Abstract(参考訳): 目視は人間の感情分析にとって重要な非言語的手がかりである。
近年の視線推定では、全顔領域からの情報が性能に有益であることが示された。
このアイデアをさらに推し進めるために,コンピュータビジョンにおける長年の作業とは対照的に,顔の全体像を入力とする外観ベース手法を提案する。
特徴マップに空間重みを印加した畳み込みニューラルネットワークを用いて顔画像を符号化し、異なる顔領域の情報を柔軟に抑制または拡張する。
広範な評価を通じて,本手法は2次元および3次元の視線推定において,その技術性能を大幅に上回っており,最大14.3%のmpiigaze,27.7%のeyediapの改善を達成し,人に依存しない3次元視線推定が可能となった。
さらに、この改善は様々な照明条件と視線方向で一致しており、特に最も困難な頭部ポーズに対して顕著であることを示す。
関連論文リスト
- Orientation-conditioned Facial Texture Mapping for Video-based Facial Remote Photoplethysmography Estimation [23.199005573530194]
我々は3次元顔表面を利用して、新しい配向条件付き映像表現を構築する。
提案手法は,MMPD上でのクロスデータセットテストにおいて,18.2%の性能向上を実現する。
テストされたすべてのシナリオにおいて、29.6%の大幅なパフォーマンス向上が示されている。
論文 参考訳(メタデータ) (2024-04-14T23:30:35Z) - 3D Face Alignment Through Fusion of Head Pose Information and Features [0.6526824510982799]
顔アライメント性能を向上させるために頭部ポーズ情報を利用する新しい手法を提案する。
提案するネットワーク構造は,2次元ネットワークを介して頑健な顔アライメントを行う。
予測された顔のランドマークと頭部ポーズ情報との相関と,顔のランドマークの精度の変動を実験的に評価した。
論文 参考訳(メタデータ) (2023-08-25T12:01:24Z) - Introducing Explicit Gaze Constraints to Face Swapping [1.9386396954290932]
顔交換は、一方の顔のアイデンティティと他方の顔の非外観属性を組み合わせることで、合成顔を生成する。
顔全体を考慮した画像に基づく損失測定は、知覚的に重要で空間的に小さい眼領域を効果的に捉えていない。
本稿では、視線予測を利用してトレーニング中に顔スワップモデルに通知し、既存の方法と比較する新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-05-25T15:12:08Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Face Super-Resolution Guided by 3D Facial Priors [92.23902886737832]
シャープな顔構造を把握した3次元顔先行情報を明示的に組み込んだ新しい顔超解像法を提案する。
我々の研究は、顔属性のパラメトリック記述の融合に基づく3次元形態的知識を初めて探求したものである。
提案した3D先行画像は、最先端技術よりも優れた顔超解像結果が得られる。
論文 参考訳(メタデータ) (2020-07-18T15:26:07Z) - DeepFaceFlow: In-the-wild Dense 3D Facial Motion Estimation [56.56575063461169]
DeepFaceFlowは、3D非剛体顔の流れを推定するための堅牢で高速で高精度なフレームワークである。
私たちのフレームワークは、2つの非常に大規模な顔ビデオデータセットでトレーニングされ、テストされました。
登録された画像に対して,60fpsで3次元フローマップを生成する。
論文 参考訳(メタデータ) (2020-05-14T23:56:48Z) - Real-time Facial Expression Recognition "In The Wild'' by Disentangling
3D Expression from Identity [6.974241731162878]
本稿では,1枚のRGB画像から人間の感情認識を行う新しい手法を提案する。
顔のダイナミックス、アイデンティティ、表情、外観、3Dポーズのバリエーションに富んだ大規模な顔ビデオデータセットを構築した。
提案するフレームワークは毎秒50フレームで動作し、3次元表現変動のパラメータを頑健に推定することができる。
論文 参考訳(メタデータ) (2020-05-12T01:32:55Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。