論文の概要: "You made me feel this way": Investigating Partners' Influence in
Predicting Emotions in Couples' Conflict Interactions using Speech Data
- arxiv url: http://arxiv.org/abs/2106.01526v1
- Date: Thu, 3 Jun 2021 01:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:19:25.652874
- Title: "You made me feel this way": Investigating Partners' Influence in
Predicting Emotions in Couples' Conflict Interactions using Speech Data
- Title(参考訳): 「こう感じさせた」:音声データを用いた夫婦の対立行動におけるパートナーの感情予測への影響を探る
- Authors: George Boateng, Peter Hilpert, Guy Bodenmann, Mona Neysari, Tobias
Kowatsch
- Abstract要約: 対立の間、ロマンチックなパートナーが相互にどのように相互作用するかは、相互作用の最後にどのように感じるかに影響します。
本研究では,368人のドイツ語話者スイス人カップルのデータセットから,BERTを用いて言語的特徴(つまり,パートナーが言ったこと)とopenSMILEを抽出し,パラ言語的特徴(すなわち,どのように言ったか)を抽出した。
これらの機能に基づいて、私たちは機械学習モデルをトレーニングし、対立間の相互作用の後、パートナーが肯定的または否定的と感じているかどうかを予測しました。
- 参考スコア(独自算出の注目度): 3.618388731766687
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: How romantic partners interact with each other during a conflict influences
how they feel at the end of the interaction and is predictive of whether the
partners stay together in the long term. Hence understanding the emotions of
each partner is important. Yet current approaches that are used include
self-reports which are burdensome and hence limit the frequency of this data
collection. Automatic emotion prediction could address this challenge. Insights
from psychology research indicate that partners' behaviors influence each
other's emotions in conflict interaction and hence, the behavior of both
partners could be considered to better predict each partner's emotion. However,
it is yet to be investigated how doing so compares to only using each partner's
own behavior in terms of emotion prediction performance. In this work, we used
BERT to extract linguistic features (i.e., what partners said) and openSMILE to
extract paralinguistic features (i.e., how they said it) from a data set of 368
German-speaking Swiss couples (N = 736 individuals) which were videotaped
during an 8-minutes conflict interaction in the laboratory. Based on those
features, we trained machine learning models to predict if partners feel
positive or negative after the conflict interaction. Our results show that
including the behavior of the other partner improves the prediction
performance. Furthermore, for men, considering how their female partners spoke
is most important and for women considering what their male partner said is
most important in getting better prediction performance. This work is a step
towards automatically recognizing each partners' emotion based on the behavior
of both, which would enable a better understanding of couples in research,
therapy, and the real world.
- Abstract(参考訳): 紛争の間、ロマンチックなパートナー同士の相互作用は、対話の終わりに彼らがどう感じているかに影響し、パートナーが長期にわたって一緒にいるかどうかを予測する。
したがって、各パートナーの感情を理解することが重要です。
しかし、現在使われているアプローチには、負担がかかり、従ってこのデータ収集の頻度を制限する自己報告が含まれる。
自動感情予測はこの課題に対処できる。
心理学研究からの洞察は、パートナーの行動が対立の相互作用においてお互いの感情に影響を与えていることを示している。
しかし, 感情予測性能の観点からは, それぞれの相手の行動のみを用いた場合との比較は, 未だ検討されていない。
本研究では,実験室で8分間の衝突反応で映像化された368人のドイツ語話者スイス人カップル(N=736人)のデータセットから,言語的特徴(パートナーの言ったこと)とopenSMILEを抽出し,パラ言語的特徴(どのように言ったか)を抽出した。
これらの機能に基づいて、コンフリクトインタラクション後にパートナーが肯定的か否定的かを予測するために、マシンラーニングモデルをトレーニングしました。
その結果,相手の行動を含めると予測性能が向上することがわかった。
さらに、男性にとって、女性パートナーの話し方を考えることが最重要であり、男性パートナーが言うことを考える女性は、より良い予測性能を得る上で最も重要である。
この研究は、お互いの行動に基づいてパートナーの感情を自動的に認識するステップであり、研究、セラピー、現実世界におけるカップルの理解を深める。
関連論文リスト
- Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Do Large Language Models Understand Verbal Indicators of Romantic Attraction? [0.0]
本研究では,Large Language Models (LLMs) が,短時間のユーザ間インタラクションにおいて,ロマンチックなアトラクションを検出可能であることを示す。
また,ChatGPT(およびClaude 3)は,速度デートの成功の客観的指標と主観的指標の両方を予測できることを示した。
論文 参考訳(メタデータ) (2024-06-23T17:50:30Z) - SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - "Are you okay, honey?": Recognizing Emotions among Couples Managing
Diabetes in Daily Life using Multimodal Real-World Smartwatch Data [8.355190969810305]
カップルは一般的に慢性疾患を一緒に管理し、その管理は患者と彼らのロマンチックなパートナーの両方に感情的な負担を与える。
日常生活における各パートナーの感情を認識することは、慢性疾患管理における感情的幸福感についての洞察を与えることができる。
身体的,運動的,音響的,言語的特徴を抽出し,各パートナーの自己報告感情を認識するための機械学習モデルを訓練した。
論文 参考訳(メタデータ) (2022-08-16T22:04:12Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - CogIntAc: Modeling the Relationships between Intention, Emotion and
Action in Interactive Process from Cognitive Perspective [15.797390372732973]
個人間相互作用の新たな認知枠組みを提案する。
フレームワークの中核は、個人が内的意図によって駆動される外部行動を通じて相互作用を達成することである。
論文 参考訳(メタデータ) (2022-05-07T03:54:51Z) - BERT meets LIWC: Exploring State-of-the-Art Language Models for
Predicting Communication Behavior in Couples' Conflict Interactions [3.0309575462589122]
我々は、ドイツ語話者のスイス人368人のカップルのコミュニケーションコードを自動的に予測するために機械学習モデルを訓練する。
結果は、心理学における事実上の言語的特徴であるLIWCの近代的な代替案を検討する時が来たことを示唆している。
論文 参考訳(メタデータ) (2021-06-03T01:37:59Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - "where is this relationship going?": Understanding Relationship
Trajectories in Narrative Text [28.14874371042193]
社会的な相互作用を記述する物語が与えられたとき、システムは根底にある関係の軌跡について推測する。
新しいデータセットであるSocial Narrative Treeを構築し、1250のストーリーからなり、様々な日々の社会的相互作用を文書化しています。
論文 参考訳(メタデータ) (2020-10-29T02:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。