論文の概要: Analysing the Direction of Emotional Influence in Nonverbal Dyadic
Communication: A Facial-Expression Study
- arxiv url: http://arxiv.org/abs/2012.08780v1
- Date: Wed, 16 Dec 2020 07:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 10:22:53.599132
- Title: Analysing the Direction of Emotional Influence in Nonverbal Dyadic
Communication: A Facial-Expression Study
- Title(参考訳): 非言語ダイアドコミュニケーションにおける感情の影響の方向分析:顔表情研究
- Authors: Maha Shadaydeh, Lea Mueller, Dana Schneider, Martin Thuemmel, Thomas
Kessler, Joachim Denzler
- Abstract要約: 本研究は,表情のみに基づくダイアディック対話における感情的影響の方向分析に関するものである。
コンピュータビジョンの能力と因果推論理論を併用して,感情的影響の方向に関する仮説の定量的検証を行う。
- 参考スコア(独自算出の注目度): 6.4985954299863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying the direction of emotional influence in a dyadic dialogue is of
increasing interest in the psychological sciences with applications in
psychotherapy, analysis of political interactions, or interpersonal conflict
behavior. Facial expressions are widely described as being automatic and thus
hard to overtly influence. As such, they are a perfect measure for a better
understanding of unintentional behavior cues about social-emotional cognitive
processes. With this view, this study is concerned with the analysis of the
direction of emotional influence in dyadic dialogue based on facial expressions
only. We exploit computer vision capabilities along with causal inference
theory for quantitative verification of hypotheses on the direction of
emotional influence, i.e., causal effect relationships, in dyadic dialogues. We
address two main issues. First, in a dyadic dialogue, emotional influence
occurs over transient time intervals and with intensity and direction that are
variant over time. To this end, we propose a relevant interval selection
approach that we use prior to causal inference to identify those transient
intervals where causal inference should be applied. Second, we propose to use
fine-grained facial expressions that are present when strong distinct facial
emotions are not visible. To specify the direction of influence, we apply the
concept of Granger causality to the time series of facial expressions over
selected relevant intervals. We tested our approach on newly, experimentally
obtained data. Based on the quantitative verification of hypotheses on the
direction of emotional influence, we were able to show that the proposed
approach is most promising to reveal the causal effect pattern in various
instructed interaction conditions.
- Abstract(参考訳): ディヤド対話における感情的影響の方向性を特定することは、心理療法、政治的相互作用の分析、対人対立行動に応用される心理科学への興味を高めている。
表情は自動的であり、過剰な影響を及ぼさないと広く説明されている。
このように、社会的感情認知プロセスに関する意図しない行動の手がかりをよりよく理解するための完璧な尺度である。
そこで本研究では,表情のみに基づくダイアディック対話における感情的影響の方向分析について考察した。
コンピュータビジョンの能力と因果推論理論を用いて,対話における感情的影響,すなわち因果効果関係の方向に関する仮説の定量的検証を行う。
主な2つの問題に対処する。
まず、ダイアド対話において、感情的な影響は過渡的な時間間隔で起こり、時間とともに変化する強さと方向と共に起こる。
そこで本研究では,因果推論を適用すべき過渡区間を特定するために,因果推論に先立って使用する関連する区間選択手法を提案する。
第2に,強烈な顔の感情が見えなくなった場合に生じる,きめ細かい表情を用いることを提案する。
影響の方向を特定するために,グラガー因果関係の概念を,選択された関連区間における表情の時系列に適用する。
実験により得られたデータを用いて実験を行った。
感情的影響の方向に関する仮説を定量的に検証した結果,提案手法が最も有望であることを示すことができた。
関連論文リスト
- CogIntAc: Modeling the Relationships between Intention, Emotion and
Action in Interactive Process from Cognitive Perspective [15.797390372732973]
個人間相互作用の新たな認知枠組みを提案する。
フレームワークの中核は、個人が内的意図によって駆動される外部行動を通じて相互作用を達成することである。
論文 参考訳(メタデータ) (2022-05-07T03:54:51Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - E-ffective: A Visual Analytic System for Exploring the Emotion and
Effectiveness of Inspirational Speeches [57.279044079196105]
E-ffective(エフェクティブ)は、音声の専門家や初心者が、音声要因の役割と効果的な音声への貢献の両方を分析することのできる視覚分析システムである。
E-spiral(音声の感情の変化を視覚的にコンパクトに表現する)とE-script(音声コンテンツを主要な音声配信情報に結びつける)の2つの新しい可視化技術がある。
論文 参考訳(メタデータ) (2021-10-28T06:14:27Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Perspective-taking and Pragmatics for Generating Empathetic Responses
Focused on Emotion Causes [50.569762345799354]
i) 相手の感情が発話から引き起こされる原因となる単語を特定することと, (ii) 応答生成における特定の単語を反映することである。
社会的認知からインスピレーションを得て、生成的推定を用いて、感情が単語レベルのラベルのない発話から単語を推論する。
論文 参考訳(メタデータ) (2021-09-18T04:22:49Z) - Toward Affective XAI: Facial Affect Analysis for Understanding
Explainable Human-AI Interactions [4.874780144224057]
この研究は、人々がXAIインターフェースと対話する際に、どの顔に影響を及ぼすかを特定することを目的としている。
また,顔の感情信号と参加者の説明的利用をリンクするためのマルチタスク機能埋め込みも開発した。
論文 参考訳(メタデータ) (2021-06-16T13:14:21Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。