論文の概要: "Are you okay, honey?": Recognizing Emotions among Couples Managing
Diabetes in Daily Life using Multimodal Real-World Smartwatch Data
- arxiv url: http://arxiv.org/abs/2208.08909v1
- Date: Tue, 16 Aug 2022 22:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:56:08.637640
- Title: "Are you okay, honey?": Recognizing Emotions among Couples Managing
Diabetes in Daily Life using Multimodal Real-World Smartwatch Data
- Title(参考訳): 「大丈夫か、ハニー」:マルチモーダル・リアルワールド・スマートウォッチデータを用いた日常糖尿病管理夫婦の感情認識
- Authors: George Boateng, Prabhakaran Santhanam, Elgar Fleisch, Janina
L\"uscher, Theresa Pauly, Urte Scholz, Guy Bodenmann, Tobias Kowatsch
- Abstract要約: 実世界のマルチモーダルスマートウォッチセンサデータと自己報告された感情データの85時間 (1,021 5分サンプル) を収集した。
我々は、各パートナーの自己報告された感情(原子価と覚醒)を認識するために、生理的、運動的、音響的、言語的特徴を抽出した。
この研究は、パートナーが日々の感情をモニターできる自動感情認識システムの構築に寄与する。
- 参考スコア(独自算出の注目度): 4.06604054210706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Couples generally manage chronic diseases together and the management takes
an emotional toll on both patients and their romantic partners. Consequently,
recognizing the emotions of each partner in daily life could provide an insight
into their emotional well-being in chronic disease management. Currently, the
process of assessing each partner's emotions is manual, time-intensive, and
costly. Despite the existence of works on emotion recognition among couples,
none of these works have used data collected from couples' interactions in
daily life. In this work, we collected 85 hours (1,021 5-minute samples) of
real-world multimodal smartwatch sensor data (speech, heart rate,
accelerometer, and gyroscope) and self-reported emotion data (n=612) from 26
partners (13 couples) managing diabetes mellitus type 2 in daily life. We
extracted physiological, movement, acoustic, and linguistic features, and
trained machine learning models (support vector machine and random forest) to
recognize each partner's self-reported emotions (valence and arousal). Our
results from the best models were better than chance with balanced accuracies
of 63.8% and 78.1% for arousal and valence respectively. This work contributes
toward building automated emotion recognition systems that would eventually
enable partners to monitor their emotions in daily life and enable the delivery
of interventions to improve their emotional well-being.
- Abstract(参考訳): カップルは通常、慢性疾患を一緒に管理し、管理職は患者とロマンチックなパートナーの両方に感情的な負担を負う。
結果として、日常生活における各パートナーの感情認識は、慢性疾患管理における彼らの感情的幸福に関する洞察を与えることができる。
現在、各パートナーの感情を評価するプロセスは、手動、時間集約、そしてコストがかかる。
夫婦間の感情認識に関する研究は存在するが、これらの研究は夫婦の日常生活における相互作用から収集されたデータを用いていない。
そこで本研究では,実世界のマルチモーダルスマートウォッチセンサデータ(スパイチ,心拍数,加速度計,ジャイロスコープ)の85時間(1021~5分間のサンプル)と自己報告感情データ(n=612)を,糖尿病2型糖尿病患者26名(カップル13名)から収集した。
我々は,生理的,運動的,音響的,言語的特徴を抽出し,各パートナーの自己報告された感情(原子価と覚醒)を認識するための機械学習モデル(ベクトルマシンとランダムフォレストのサポート)を訓練した。
最良モデルから得られた結果は、それぞれ63.8%と78.1%のバランスの取れたアキュラシーの確率よりも優れていた。
この研究は、パートナーが日々の感情をモニターし、感情の幸福感を改善するための介入の配信を可能にする自動感情認識システムの構築に寄与する。
関連論文リスト
- SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - WEARS: Wearable Emotion AI with Real-time Sensor data [0.8740570557632509]
スマートウォッチセンサを用いてユーザの感情を予測するシステムを提案する。
英語と地域語を併用した動画をリアルタイムに収集する枠組みを設計する。
また、心拍数、加速度計、ジャイロセンサーデータなどの特徴が気分に与える影響について、アブレーション調査を行った。
論文 参考訳(メタデータ) (2023-08-22T11:03:00Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Multimodal Emotion Recognition among Couples from Lab Settings to Daily
Life using Smartwatches [2.4366811507669124]
日常生活における各パートナーの感情を認識することは、慢性疾患管理における彼らの感情的幸福についての洞察を与えることができる。
現在、カップル間の感情認識に関する研究の包括的な概要は存在しない。
この論文は、パートナーが日々の感情をモニターできる自動感情認識システムの構築に寄与する。
論文 参考訳(メタデータ) (2022-12-21T16:41:11Z) - Face Emotion Recognization Using Dataset Augmentation Based on Neural
Network [0.0]
表情は、人の感情や感情の最も外部的な表現の1つである。
対人関係の調整に重要な役割を果たしている。
感情分析の分野の一分野として、表情認識は幅広い応用可能性を提供する。
論文 参考訳(メタデータ) (2022-10-23T10:21:45Z) - The MuSe 2022 Multimodal Sentiment Analysis Challenge: Humor, Emotional
Reactions, and Stress [71.06453250061489]
マルチモーダル・センチメント・アナリティクス・チャレンジ(MuSe 2022)は、マルチモーダル・センチメントと感情認識に重点を置いている。
今年の課題では、(i)ドイツサッカーコーチの音声-視覚的記録を含むPassau Spontaneous Football Coach Humorデータセット、(ii)ドイツサッカーコーチのユーモアの存在をラベル付けしたHum-Reactionデータセット、(ii)感情的表情強度に対して個人の反応が注釈付けされたHum-Reactionデータセット、(iii)ストレス的態度における人々の継続的な感情的価値観をラベル付けした音声-視覚的データからなるUlm-Trier Social Stress Testデータセットの3つのデータセットを特徴としている。
論文 参考訳(メタデータ) (2022-06-23T13:34:33Z) - Development, Deployment, and Evaluation of DyMand -- An Open-Source
Smartwatch and Smartphone System for Capturing Couples' Dyadic Interactions
in Chronic Disease Management in Daily Life [4.269935075264936]
DyMandは、パートナーのインタラクションモーメントに基づいたカップルのデータ収集のための、オープンソースのスマートウォッチとスマートフォンシステムである。
提案アルゴリズムでは,1つのパートナーが装着する2つのスマートウォッチ間のBluetooth信号強度と,そのパートナーが相互作用していることを推測する音声アクティビティ検出機械学習アルゴリズムを用いる。
当社のシステムは、アプリが動作中のセンサーおよびセルフレポートデータの99.1%をトリガーし、77.6%のアルゴリズムによる録音にはパートナーの会話の瞬間が含まれていた。
論文 参考訳(メタデータ) (2022-05-16T13:37:42Z) - "You made me feel this way": Investigating Partners' Influence in
Predicting Emotions in Couples' Conflict Interactions using Speech Data [3.618388731766687]
対立の間、ロマンチックなパートナーが相互にどのように相互作用するかは、相互作用の最後にどのように感じるかに影響します。
本研究では,368人のドイツ語話者スイス人カップルのデータセットから,BERTを用いて言語的特徴(つまり,パートナーが言ったこと)とopenSMILEを抽出し,パラ言語的特徴(すなわち,どのように言ったか)を抽出した。
これらの機能に基づいて、私たちは機械学習モデルをトレーニングし、対立間の相互作用の後、パートナーが肯定的または否定的と感じているかどうかを予測しました。
論文 参考訳(メタデータ) (2021-06-03T01:15:41Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。