論文の概要: Interpretable Explainability in Facial Emotion Recognition and
Gamification for Data Collection
- arxiv url: http://arxiv.org/abs/2211.04769v1
- Date: Wed, 9 Nov 2022 09:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 17:42:42.596323
- Title: Interpretable Explainability in Facial Emotion Recognition and
Gamification for Data Collection
- Title(参考訳): データ収集における表情認識とゲーミフィケーションの解釈可能性
- Authors: Krist Shingjergji, Deniz Iren, Felix Bottger, Corrie Urlings, Roland
Klemke
- Abstract要約: 顔の感情認識モデルを訓練するには、大量のデータと高価なアノテーションプロセスが必要である。
我々は,人間の明示的なラベル付けを行なわずに,注釈付き顔感情データを取得するゲーミフィケーション手法を開発した。
プレイヤーの表情認知能力と表情能力は,繰り返しゲームプレイによって著しく向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training facial emotion recognition models requires large sets of data and
costly annotation processes. To alleviate this problem, we developed a gamified
method of acquiring annotated facial emotion data without an explicit labeling
effort by humans. The game, which we named Facegame, challenges the players to
imitate a displayed image of a face that portrays a particular basic emotion.
Every round played by the player creates new data that consists of a set of
facial features and landmarks, already annotated with the emotion label of the
target facial expression. Such an approach effectively creates a robust,
sustainable, and continuous machine learning training process. We evaluated
Facegame with an experiment that revealed several contributions to the field of
affective computing. First, the gamified data collection approach allowed us to
access a rich variation of facial expressions of each basic emotion due to the
natural variations in the players' facial expressions and their expressive
abilities. We report improved accuracy when the collected data were used to
enrich well-known in-the-wild facial emotion datasets and consecutively used
for training facial emotion recognition models. Second, the natural language
prescription method used by the Facegame constitutes a novel approach for
interpretable explainability that can be applied to any facial emotion
recognition model. Finally, we observed significant improvements in the facial
emotion perception and expression skills of the players through repeated game
play.
- Abstract(参考訳): 顔の感情認識モデルのトレーニングには、大量のデータと高価なアノテーションプロセスが必要です。
この問題を軽減するため,人間による明示的なラベル付けを行なわずに,注釈付き表情データを取得するゲーミフィケーション手法を開発した。
Facegameという名前のこのゲームは、プレイヤーに、特定の基本的な感情を表現する顔の表示イメージを模倣するよう挑戦する。
プレイヤーが再生する全てのラウンドは、ターゲットの表情の感情ラベルにアノテートされた一連の顔の特徴とランドマークからなる新しいデータを生成する。
このようなアプローチは、効果的に堅牢で持続可能な、継続的な機械学習トレーニングプロセスを生み出す。
情緒コンピューティングの分野へのいくつかの貢献を明らかにした実験により,facegameを評価した。
まず、ゲーム化されたデータ収集アプローチにより、プレイヤーの表情の自然な変化と表現能力により、基本感情の表情の豊富なバリエーションにアクセスすることが可能となった。
本報告では,収集したデータを用いて知名度の高い表情感情データセットを豊かにし,顔の感情認識モデルのトレーニングに連続して使用する場合の精度の向上を報告する。
第2に、顔ゲームで使用する自然言語処方法は、任意の顔感情認識モデルに適用可能な解釈可能な説明可能性の新しいアプローチを構成する。
最後に,繰り返しのゲームプレイを通じて,プレイヤーの表情知覚と表情スキルの大幅な改善が観察された。
関連論文リスト
- Leaving Some Facial Features Behind [0.0]
本研究では,Fer2013データセットの顔摂動を用いて,顔の特徴が感情分類にどのように影響するかを検討する。
データに基づいてトレーニングされたモデルは、幸せや驚きといった感情のベースラインと比較して、重要な顔の特徴を除去することで、最大85%の精度低下を経験します。
論文 参考訳(メタデータ) (2024-10-29T02:28:53Z) - Knowledge-Enhanced Facial Expression Recognition with Emotional-to-Neutral Transformation [66.53435569574135]
既存の表情認識法は、通常、個別のラベルを使って訓練済みのビジュアルエンコーダを微調整する。
視覚言語モデルによって生成されるテキスト埋め込みの豊富な知識は、識別的表情表現を学ぶための有望な代替手段である。
感情-中性変換を用いた知識強化FER法を提案する。
論文 参考訳(メタデータ) (2024-09-13T07:28:57Z) - Emotion Recognition for Challenged People Facial Appearance in Social
using Neural Network [0.0]
CNNでは、取得した画像を異なる感情カテゴリに分類するために顔表現が使用される。
本稿では,画像による表情の認識と啓蒙の不変性について提案する。
論文 参考訳(メタデータ) (2023-05-11T14:38:27Z) - PERI: Part Aware Emotion Recognition In The Wild [4.206175795966693]
本稿では視覚的特徴を用いた感情認識に焦点を当てる。
身体のポーズと顔のランドマークの両方から生成されたマスクを用いて、入力画像からキー領域を抽出し、部分認識空間(PAS)画像を作成する。
野生のEMOTICデータセットで公開されている結果について報告する。
論文 参考訳(メタデータ) (2022-10-18T20:01:40Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z) - Real-time Facial Expression Recognition "In The Wild'' by Disentangling
3D Expression from Identity [6.974241731162878]
本稿では,1枚のRGB画像から人間の感情認識を行う新しい手法を提案する。
顔のダイナミックス、アイデンティティ、表情、外観、3Dポーズのバリエーションに富んだ大規模な顔ビデオデータセットを構築した。
提案するフレームワークは毎秒50フレームで動作し、3次元表現変動のパラメータを頑健に推定することができる。
論文 参考訳(メタデータ) (2020-05-12T01:32:55Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。