論文の概要: Head Matters: Explainable Human-centered Trait Prediction from Head
Motion Dynamics
- arxiv url: http://arxiv.org/abs/2112.08068v1
- Date: Wed, 15 Dec 2021 12:17:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 20:37:19.858256
- Title: Head Matters: Explainable Human-centered Trait Prediction from Head
Motion Dynamics
- Title(参考訳): 頭部運動ダイナミクスによる説明可能な人中心交通予測
- Authors: Surbhi Madan, Monika Gahalawat, Tanaya Guha and Ramanathan Subramanian
- Abstract要約: 本研究は,行動分析におけるキネム(kiinemes)と呼ばれる初等頭部運動ユニットの有用性を実証する。
頭の動きパターンを一連のキネムに変換することで、標的となる特徴を特徴付ける潜時的なシグネチャの発見が容易になる。
- 参考スコア(独自算出の注目度): 15.354601615061814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate the utility of elementary head-motion units termed kinemes for
behavioral analytics to predict personality and interview traits. Transforming
head-motion patterns into a sequence of kinemes facilitates discovery of latent
temporal signatures characterizing the targeted traits, thereby enabling both
efficient and explainable trait prediction. Utilizing Kinemes and Facial Action
Coding System (FACS) features to predict (a) OCEAN personality traits on the
First Impressions Candidate Screening videos, and (b) Interview traits on the
MIT dataset, we note that: (1) A Long-Short Term Memory (LSTM) network trained
with kineme sequences performs better than or similar to a Convolutional Neural
Network (CNN) trained with facial images; (2) Accurate predictions and
explanations are achieved on combining FACS action units (AUs) with kinemes,
and (3) Prediction performance is affected by the time-length over which head
and facial movements are observed.
- Abstract(参考訳): 本研究は,行動分析のための基本頭部運動ユニットkinemesの有用性を実証し,パーソナリティとインタビュー特性の予測を行う。
頭部運動パターンをキネムの配列に変換することにより、標的特性を特徴付ける潜在時間的シグネチャの発見が容易となり、効率的かつ説明可能な特徴予測が可能になる。
kinemes と face action coding system (facs) 機能を利用した予測
(a)第1回印象候補上映ビデオにおけるオセアン人格特性、及び
b)mitデータセットにおけるインタビューの特徴は、(1)キネメシーケンスで訓練された長期記憶(lstm)ネットワークは、顔画像で訓練された畳み込みニューラルネットワーク(cnn)よりも優れており、(2)facsアクションユニット(aus)とキネムを組み合わせることで正確な予測と説明が行われ、(3)予測性能は、頭と顔の動きが観察される時間長に影響される。
関連論文リスト
- What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Detection of Mild Cognitive Impairment Using Facial Features in Video
Conversations [4.229544696616341]
軽度認知障害(MCI)の早期発見は、MCIから認知症への進行を遅らせるための早期介入につながる。
Deep Learning (DL)アルゴリズムは、初期の非侵襲的で低コストなMCI検出を実現するのに役立つ。
本報告では, 高齢者におけるMCIの検出について, 家庭内会話から抽出した顔の特徴のみに基づくDLモデルを用いて検討する。
論文 参考訳(メタデータ) (2023-08-29T20:45:41Z) - Explainable Human-centered Traits from Head Motion and Facial Expression
Dynamics [13.050530440884934]
本研究は,多モーダルな行動規範による人格予測と面接特有な特徴の解明に有効であることを示す。
我々は,これらの特徴を推定するために,キネム(kinemes)という基本的な頭部運動単位,行動単位と呼ばれる原子顔の動き,および音声特徴を利用する。
融合の方法として、意思決定と特徴レベルの融合、付加的な注意に基づく融合戦略について検討する。
論文 参考訳(メタデータ) (2023-02-20T07:45:25Z) - SS-VAERR: Self-Supervised Apparent Emotional Reaction Recognition from
Video [61.21388780334379]
この研究は、自己監督的な方法で行われるビデオのみの入力からの明らかな感情的反応の認識に焦点を当てる。
ネットワークは、まず異なる自己教師付きプレテキストタスクで事前訓練され、その後、下流のターゲットタスクで微調整される。
論文 参考訳(メタデータ) (2022-10-20T15:21:51Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - From Connectomic to Task-evoked Fingerprints: Individualized Prediction
of Task Contrasts from Resting-state Functional Connectivity [17.020869686284165]
Resting-state functional MRI (rsfMRI) は、個人の認知指紋として機能する機能的コネクトームを産生する。
静止状態の指紋から個々のタスクのコントラストを予測するために,面ベース畳み込みニューラルネットワーク(BrainSurfCNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-08-07T02:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。