論文の概要: Analysing the Direction of Emotional Influence in Nonverbal Dyadic
Communication: A Facial-Expression Study
- arxiv url: http://arxiv.org/abs/2012.08780v1
- Date: Wed, 16 Dec 2020 07:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 10:22:53.599132
- Title: Analysing the Direction of Emotional Influence in Nonverbal Dyadic
Communication: A Facial-Expression Study
- Title(参考訳): 非言語ダイアドコミュニケーションにおける感情の影響の方向分析:顔表情研究
- Authors: Maha Shadaydeh, Lea Mueller, Dana Schneider, Martin Thuemmel, Thomas
Kessler, Joachim Denzler
- Abstract要約: 本研究は,表情のみに基づくダイアディック対話における感情的影響の方向分析に関するものである。
コンピュータビジョンの能力と因果推論理論を併用して,感情的影響の方向に関する仮説の定量的検証を行う。
- 参考スコア(独自算出の注目度): 6.4985954299863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying the direction of emotional influence in a dyadic dialogue is of
increasing interest in the psychological sciences with applications in
psychotherapy, analysis of political interactions, or interpersonal conflict
behavior. Facial expressions are widely described as being automatic and thus
hard to overtly influence. As such, they are a perfect measure for a better
understanding of unintentional behavior cues about social-emotional cognitive
processes. With this view, this study is concerned with the analysis of the
direction of emotional influence in dyadic dialogue based on facial expressions
only. We exploit computer vision capabilities along with causal inference
theory for quantitative verification of hypotheses on the direction of
emotional influence, i.e., causal effect relationships, in dyadic dialogues. We
address two main issues. First, in a dyadic dialogue, emotional influence
occurs over transient time intervals and with intensity and direction that are
variant over time. To this end, we propose a relevant interval selection
approach that we use prior to causal inference to identify those transient
intervals where causal inference should be applied. Second, we propose to use
fine-grained facial expressions that are present when strong distinct facial
emotions are not visible. To specify the direction of influence, we apply the
concept of Granger causality to the time series of facial expressions over
selected relevant intervals. We tested our approach on newly, experimentally
obtained data. Based on the quantitative verification of hypotheses on the
direction of emotional influence, we were able to show that the proposed
approach is most promising to reveal the causal effect pattern in various
instructed interaction conditions.
- Abstract(参考訳): ディヤド対話における感情的影響の方向性を特定することは、心理療法、政治的相互作用の分析、対人対立行動に応用される心理科学への興味を高めている。
表情は自動的であり、過剰な影響を及ぼさないと広く説明されている。
このように、社会的感情認知プロセスに関する意図しない行動の手がかりをよりよく理解するための完璧な尺度である。
そこで本研究では,表情のみに基づくダイアディック対話における感情的影響の方向分析について考察した。
コンピュータビジョンの能力と因果推論理論を用いて,対話における感情的影響,すなわち因果効果関係の方向に関する仮説の定量的検証を行う。
主な2つの問題に対処する。
まず、ダイアド対話において、感情的な影響は過渡的な時間間隔で起こり、時間とともに変化する強さと方向と共に起こる。
そこで本研究では,因果推論を適用すべき過渡区間を特定するために,因果推論に先立って使用する関連する区間選択手法を提案する。
第2に,強烈な顔の感情が見えなくなった場合に生じる,きめ細かい表情を用いることを提案する。
影響の方向を特定するために,グラガー因果関係の概念を,選択された関連区間における表情の時系列に適用する。
実験により得られたデータを用いて実験を行った。
感情的影響の方向に関する仮説を定量的に検証した結果,提案手法が最も有望であることを示すことができた。
関連論文リスト
- CauESC: A Causal Aware Model for Emotional Support Conversation [79.4451588204647]
既存のアプローチは、苦痛の感情の原因を無視します。
彼らは、話者間の相互作用における感情的ダイナミクスよりも、探究者自身の精神状態に焦点を当てている。
本稿では、まず、苦痛の感情要因と、その原因によって引き起こされる感情効果を認識する新しいフレームワークCauESCを提案する。
論文 参考訳(メタデータ) (2024-01-31T11:30:24Z) - E-CORE: Emotion Correlation Enhanced Empathetic Dialogue Generation [33.57399405783864]
本稿では,感情相関を改良した共感対話生成フレームワークを提案する。
具体的には、文脈に基づく感情の相互作用を捉えるために、マルチレゾリューション感情グラフを考案した。
そこで我々は,感情相関強化デコーダを提案し,新しい相関認識アグリゲーションとソフト/ハード戦略を提案する。
論文 参考訳(メタデータ) (2023-11-25T12:47:39Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Expanding the Role of Affective Phenomena in Multimodal Interaction
Research [57.069159905961214]
マルチモーダルインタラクション, 感情計算, 自然言語処理において, 選ばれたカンファレンスから16,000以上の論文を調査した。
本論文では,感情関連論文910を同定し,情緒現象の役割について分析した。
我々は、人間の社会的行動や認知状態の機械的理解を高めるために、AIシステムによって感情と感情の予測がどのように使用されるかについて、限られた研究結果を得た。
論文 参考訳(メタデータ) (2023-05-18T09:08:39Z) - Empathetic Response Generation via Emotion Cause Transition Graph [29.418144401849194]
共感的対話は、感情的要因(例えば、感情の状態)と認知的要因(例えば、感情の原因)の両方の知覚を必要とする人間のような行動である。
共感対話における2つのターン間の感情原因の自然な遷移を明示的にモデル化する感情原因遷移グラフを提案する。
このグラフでは、次のターンで生じる感情の概念語を、特殊に設計された概念認識デコーダによって予測し、使用し、共感的な応答を生成する。
論文 参考訳(メタデータ) (2023-02-23T05:51:17Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。