論文の概要: Facial Expression Phoenix (FePh): An Annotated Sequenced Dataset for
Facial and Emotion-Specified Expressions in Sign Language
- arxiv url: http://arxiv.org/abs/2003.08759v2
- Date: Tue, 8 Sep 2020 18:36:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 23:00:49.380664
- Title: Facial Expression Phoenix (FePh): An Annotated Sequenced Dataset for
Facial and Emotion-Specified Expressions in Sign Language
- Title(参考訳): Facial Expression Phoenix (FePh):手話における表情と感情特定表現のための注釈付きシーケンスデータセット
- Authors: Marie Alaghband, Niloofar Yousefi, Ivan Garibay
- Abstract要約: 3000ドル以上の顔画像を含む手話の文脈で, 注釈付き表情データセットを導入する。
現在存在するほとんどの表情データセットとは異なり、FePhは頭ポーズ、向き、動きの異なる半青の顔画像を提供する。
このデータセットに注釈をつけるには、「sad」、「surprise」、「fear」、「angry」、「neutral」、「disgust」、「happy」の7つの基本的な感情の第一、第二、第三のダイアドを考える。
- 参考スコア(独自算出の注目度): 0.32116198597240836
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Facial expressions are important parts of both gesture and sign language
recognition systems. Despite the recent advances in both fields, annotated
facial expression datasets in the context of sign language are still scarce
resources. In this manuscript, we introduce an annotated sequenced facial
expression dataset in the context of sign language, comprising over $3000$
facial images extracted from the daily news and weather forecast of the public
tv-station PHOENIX. Unlike the majority of currently existing facial expression
datasets, FePh provides sequenced semi-blurry facial images with different head
poses, orientations, and movements. In addition, in the majority of images,
identities are mouthing the words, which makes the data more challenging. To
annotate this dataset we consider primary, secondary, and tertiary dyads of
seven basic emotions of "sad", "surprise", "fear", "angry", "neutral",
"disgust", and "happy". We also considered the "None" class if the image's
facial expression could not be described by any of the aforementioned emotions.
Although we provide FePh as a facial expression dataset of signers in sign
language, it has a wider application in gesture recognition and Human Computer
Interaction (HCI) systems.
- Abstract(参考訳): 表情はジェスチャーと手話認識システムにおいて重要な部分である。
両方の分野の最近の進歩にもかかわらず、手話の文脈における注釈付き表情データセットは依然として不足している。
本稿では,公共テレビ局PHOENIXの日報・天気予報から抽出した3000ドル以上の顔画像からなる,手話の文脈における注釈付き表情データセットを紹介する。
現在存在するほとんどの表情データセットとは異なり、FePhは頭ポーズ、向き、動きの異なる半青の顔画像を提供する。
さらに、ほとんどの画像では、アイデンティティーが単語を口にしているため、データはより困難になる。
このデータセットに注釈を付けるために、私たちは「sad」、「surprise」、「fear」、「angry」、「neutral」、「disgust」、「happy」の7つの基本的な感情の1次、2次、および3次的なダイナドを考える。
また、画像の表情が上記の感情のいずれかによって説明できない場合、"None"クラスも検討した。
FePhは手話のシグナーの表情データセットとして提供されるが、ジェスチャー認識やヒューマン・コンピュータ・インタラクション(HCI)システムに広く応用されている。
関連論文リスト
- Knowledge-Enhanced Facial Expression Recognition with Emotional-to-Neutral Transformation [66.53435569574135]
既存の表情認識法は、通常、個別のラベルを使って訓練済みのビジュアルエンコーダを微調整する。
視覚言語モデルによって生成されるテキスト埋め込みの豊富な知識は、識別的表情表現を学ぶための有望な代替手段である。
感情-中性変換を用いた知識強化FER法を提案する。
論文 参考訳(メタデータ) (2024-09-13T07:28:57Z) - Empowering Sign Language Communication: Integrating Sentiment and Semantics for Facial Expression Synthesis [0.7223509567556217]
本稿では,手話のための表情合成に焦点をあてた新しい手法を提案する。
我々の目標は、表情生成に感情情報を統合することで手話生成を改善することである。
論文 参考訳(メタデータ) (2024-08-27T15:55:18Z) - Towards Localized Fine-Grained Control for Facial Expression Generation [54.82883891478555]
人間、特にその顔は、豊かな表現と意図を伝える能力のために、コンテンツ生成の中心である。
現在の生成モデルは、主に平らな中立表現と文字なしの笑顔を認証なしで生成する。
顔生成における表情制御におけるAU(アクションユニット)の利用を提案する。
論文 参考訳(メタデータ) (2024-07-25T18:29:48Z) - Emotion Recognition for Challenged People Facial Appearance in Social
using Neural Network [0.0]
CNNでは、取得した画像を異なる感情カテゴリに分類するために顔表現が使用される。
本稿では,画像による表情の認識と啓蒙の不変性について提案する。
論文 参考訳(メタデータ) (2023-05-11T14:38:27Z) - Facial Expression Translation using Landmark Guided GANs [84.64650795005649]
表情から表現への変換のための強力なランドマークガイド付き生成支援ネットワーク(LandmarkGAN)を提案する。
提案したLandmarkGANは,1つの画像のみを用いて,最先端のアプローチよりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-09-05T20:52:42Z) - Disentangling Identity and Pose for Facial Expression Recognition [54.50747989860957]
より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
論文 参考訳(メタデータ) (2022-08-17T06:48:13Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Including Facial Expressions in Contextual Embeddings for Sign Language
Generation [11.794563225903813]
我々は,手話生成システムの性能に及ぼすテキスト,光沢,表情の関係をモデル化する効果について検討した。
本研究は,手話生成において顔面動作単位を最初に用いた人物として,手話の強度を表現するために顔面筋活動が果たす役割について考察する。
論文 参考訳(メタデータ) (2022-02-11T00:47:22Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。