論文の概要: Customizable Avatars with Dynamic Facial Action Coded Expressions
(CADyFACE) for Improved User Engagement
- arxiv url: http://arxiv.org/abs/2403.07314v1
- Date: Tue, 12 Mar 2024 05:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:54:00.369675
- Title: Customizable Avatars with Dynamic Facial Action Coded Expressions
(CADyFACE) for Improved User Engagement
- Title(参考訳): ユーザエンゲージメント向上のための動的顔動作コード表現(cadyface)によるカスタマイズ可能なアバター
- Authors: Megan A. Witherow, Crystal Butler, Winston J. Shields, Furkan Ilgin,
Norou Diawara, Janice Keener, John W. Harrington, and Khan M. Iftekharuddin
- Abstract要約: 3Dアバターに基づく表情刺激は、行動バイオマーカー発見におけるユーザエンゲージメントを改善する可能性がある。
FACS(Facial Action Coding System)アクションユニット(AU)ラベルによるカスタマイズ可能なアバターベースの刺激がない。
本研究は,(1)被験者のエンゲージメントを維持するためのFACS-labeled,Customizable Avatar-based expression stimuli,(2)被験者の顔の反応を定量化するための学習ベース測定,(3)測定刺激ペアで表される構成物の検証に焦点を当てた。
- 参考スコア(独自算出の注目度): 0.5358896402695404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Customizable 3D avatar-based facial expression stimuli may improve user
engagement in behavioral biomarker discovery and therapeutic intervention for
autism, Alzheimer's disease, facial palsy, and more. However, there is a lack
of customizable avatar-based stimuli with Facial Action Coding System (FACS)
action unit (AU) labels. Therefore, this study focuses on (1) FACS-labeled,
customizable avatar-based expression stimuli for maintaining subjects'
engagement, (2) learning-based measurements that quantify subjects' facial
responses to such stimuli, and (3) validation of constructs represented by
stimulus-measurement pairs. We propose Customizable Avatars with Dynamic Facial
Action Coded Expressions (CADyFACE) labeled with AUs by a certified FACS
expert. To measure subjects' AUs in response to CADyFACE, we propose a novel
Beta-guided Correlation and Multi-task Expression learning neural network
(BeCoME-Net) for multi-label AU detection. The beta-guided correlation loss
encourages feature correlation with AUs while discouraging correlation with
subject identities for improved generalization. We train BeCoME-Net for
unilateral and bilateral AU detection and compare with state-of-the-art
approaches. To assess construct validity of CADyFACE and BeCoME-Net, twenty
healthy adult volunteers complete expression recognition and mimicry tasks in
an online feasibility study while webcam-based eye-tracking and video are
collected. We test validity of multiple constructs, including face preference
during recognition and AUs during mimicry.
- Abstract(参考訳): カスタマイズ可能な3Dアバターベースの表情刺激は、行動バイオマーカー発見および自閉症、アルツハイマー病、顔面麻痺などの治療介入におけるユーザエンゲージメントを改善する可能性がある。
しかし、FACS(Facial Action Coding System)アクションユニット(AU)ラベルによるカスタマイズ可能なアバターベースの刺激が欠如している。
そこで本研究では,(1)被験者のエンゲージメントを維持するためのFACS-labeled,Customizable Avatar-based expression stimuli,(2)被験者の顔の反応を定量化する学習ベース測定,(3)刺激測定ペアで表される構成物の検証に焦点を当てた。
FACSの専門家によるAUをラベル付けした動的顔行動符号化表現(CADyFACE)を用いたカスタマイズ可能なアバターを提案する。
CADyFACEに応答して被験者のAUを測定するために,マルチラベルAU検出のための新しいBeta-guided correlation and Multi-task Expression Learning Neural Network (BeCoME-Net)を提案する。
β誘導相関損失はausと特徴的相関を助長する一方で、一般化を改善するために被写体同一性との相関を損なう。
我々は一方的および両側的AU検出のためにBeCoME-Netを訓練し、最先端のアプローチと比較する。
ウェブカムベースのアイトラッキングと映像を収集しながら、オンライン実現可能性スタディにおいて20人の健常成人ボランティアが表情認識と模倣タスクを完了させる。
我々は、認識中の顔の好みや模倣時のAUを含む複数の構成の妥当性を検証した。
関連論文リスト
- CLIP Unreasonable Potential in Single-Shot Face Recognition [0.0]
顔認識は、顔のパターンや特徴を分析して個人を識別し、認証するために設計されたコンピュータビジョンの中核的なタスクである。
近年,OpenAIによって開発されたCLIP(Contrastive Language Image Pretraining)モデルが注目されている。
CLIPは自然言語処理と視覚タスクを結びつけることで、モジュール間の一般化を可能にする。
論文 参考訳(メタデータ) (2024-11-19T08:23:52Z) - Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features [50.82725748981231]
エンゲージメント測定は、医療、教育、サービスに応用される。
生理的特徴と行動的特徴の使用は可能であるが、従来の生理的測定の非現実性は接触センサーの必要性により生じる。
コンタクトセンサの代替として, 教師なし光胸腺造影(胸腔鏡)の有用性を実証する。
論文 参考訳(メタデータ) (2024-04-05T20:39:16Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Towards Privacy-Preserving Affect Recognition: A Two-Level Deep Learning
Architecture [2.9392867898439006]
本研究では,感情認識のための2段階のディープラーニングアーキテクチャを提案する。
アーキテクチャは、特徴間の時間的関係をキャプチャするリカレントニューラルネットワークで構成されている。
論文 参考訳(メタデータ) (2021-11-14T13:52:57Z) - Prior Aided Streaming Network for Multi-task Affective Recognitionat the
2nd ABAW2 Competition [9.188777864190204]
我々は第2回ABAW2コンペティション(ABAW2コンペティション)に応募する。
異なる感情表現を扱う際に,マルチタスク・ストリーミング・ネットワークを提案する。
我々は、先行知識として高度な表情埋め込みを活用している。
論文 参考訳(メタデータ) (2021-07-08T09:35:08Z) - AU-Expression Knowledge Constrained Representation Learning for Facial
Expression Recognition [79.8779790682205]
本稿では,auアノテーションを使わずにau表現を学習し,表情認識を容易にするau表現知識制約表現学習(aue-crl)フレームワークを提案する。
課題のある非制御データセットの実験を行い,提案されたフレームワークが現状の手法よりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-12-29T03:42:04Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。