論文の概要: Multimodal Emotion Recognition among Couples from Lab Settings to Daily
Life using Smartwatches
- arxiv url: http://arxiv.org/abs/2212.13917v1
- Date: Wed, 21 Dec 2022 16:41:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 14:09:32.400450
- Title: Multimodal Emotion Recognition among Couples from Lab Settings to Daily
Life using Smartwatches
- Title(参考訳): スマートウォッチを用いた実験室から日常生活までのカップルのマルチモーダル感情認識
- Authors: George Boateng
- Abstract要約: 日常生活における各パートナーの感情を認識することは、慢性疾患管理における彼らの感情的幸福についての洞察を与えることができる。
現在、カップル間の感情認識に関する研究の包括的な概要は存在しない。
この論文は、パートナーが日々の感情をモニターできる自動感情認識システムの構築に寄与する。
- 参考スコア(独自算出の注目度): 2.4366811507669124
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Couples generally manage chronic diseases together and the management takes
an emotional toll on both patients and their romantic partners. Consequently,
recognizing the emotions of each partner in daily life could provide an insight
into their emotional well-being in chronic disease management. The emotions of
partners are currently inferred in the lab and daily life using self-reports
which are not practical for continuous emotion assessment or observer reports
which are manual, time-intensive, and costly. Currently, there exists no
comprehensive overview of works on emotion recognition among couples.
Furthermore, approaches for emotion recognition among couples have (1) focused
on English-speaking couples in the U.S., (2) used data collected from the lab,
and (3) performed recognition using observer ratings rather than partner's
self-reported / subjective emotions. In this body of work contained in this
thesis (8 papers - 5 published and 3 currently under review in various
journals), we fill the current literature gap on couples' emotion recognition,
develop emotion recognition systems using 161 hours of data from a total of
1,051 individuals, and make contributions towards taking couples' emotion
recognition from the lab which is the status quo, to daily life. This thesis
contributes toward building automated emotion recognition systems that would
eventually enable partners to monitor their emotions in daily life and enable
the delivery of interventions to improve their emotional well-being.
- Abstract(参考訳): カップルは通常、慢性疾患を一緒に管理し、管理職は患者とロマンチックなパートナーの両方に感情的な負担を負う。
結果として、日常生活における各パートナーの感情認識は、慢性疾患管理における彼らの感情的幸福に関する洞察を与えることができる。
現在、パートナーの感情は、連続的な感情評価や、手動、時間集約、費用がかかる観察レポートに実用的でない自己報告を用いて、研究室や日常生活で推測されている。
現在、カップル間の感情認識に関する研究に関する包括的な概観はない。
さらに,(1)米国における英語話者のカップルに着目し,(2)実験室で収集したデータに着目し,(3)パートナーの自己報告・主観的感情ではなく,観察者による評価を行った。
本論文に含まれる研究(論文8 - 論文5, 論文3)では, カップルの感情認識に関する現在の文献のギャップを埋め, 総計1,051人から161時間のデータを用いた感情認識システムを開発し, 現状である研究室からカップルの感情認識を日常生活に導くための貢献を行う。
この論文は、パートナーが日々の感情をモニターし、感情の幸福感を改善するための介入の配信を可能にする自動感情認識システムの構築に寄与する。
関連論文リスト
- SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Emotion in Cognitive Architecture: Emergent Properties from Interactions
with Human Emotion [0.0]
この文書は、計算認知アーキテクチャにおける感情を表現するための取り組みを示す。
認知的人間とエージェントの相互作用のアプローチの利点は、人間の内的状態とプロセスを表現することである。
論文 参考訳(メタデータ) (2022-12-28T23:50:27Z) - Face Emotion Recognization Using Dataset Augmentation Based on Neural
Network [0.0]
表情は、人の感情や感情の最も外部的な表現の1つである。
対人関係の調整に重要な役割を果たしている。
感情分析の分野の一分野として、表情認識は幅広い応用可能性を提供する。
論文 参考訳(メタデータ) (2022-10-23T10:21:45Z) - Why Do You Feel This Way? Summarizing Triggers of Emotions in Social
Media Posts [61.723046082145416]
CovidET (Emotions and their Triggers during Covid-19)は、COVID-19に関連する英国のReddit投稿1,900件のデータセットである。
我々は、感情を共同で検出し、感情のトリガーを要約する強力なベースラインを開発する。
分析の結果,コビデットは感情特異的要約における新たな課題と,長文のソーシャルメディア投稿におけるマルチ感情検出の課題が示唆された。
論文 参考訳(メタデータ) (2022-10-22T19:10:26Z) - "Are you okay, honey?": Recognizing Emotions among Couples Managing
Diabetes in Daily Life using Multimodal Real-World Smartwatch Data [8.355190969810305]
カップルは一般的に慢性疾患を一緒に管理し、その管理は患者と彼らのロマンチックなパートナーの両方に感情的な負担を与える。
日常生活における各パートナーの感情を認識することは、慢性疾患管理における感情的幸福感についての洞察を与えることができる。
身体的,運動的,音響的,言語的特徴を抽出し,各パートナーの自己報告感情を認識するための機械学習モデルを訓練した。
論文 参考訳(メタデータ) (2022-08-16T22:04:12Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Bridging the gap between emotion and joint action [0.0]
共同行動は、個人(と感情の具体化)を空間的、時間的に一緒にする。
しかし、個々の感情が集団内の具体的存在を通じてどのように伝播するか、そして共同行動が個人の感情をどのように変化させるかについてはほとんど分かっていない。
本稿では,まずそのギャップを識別し,様々な科学分野の感情と行動の強い絡み合いを示す証拠を蓄積する。
論文 参考訳(メタデータ) (2021-08-13T14:21:37Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - "You made me feel this way": Investigating Partners' Influence in
Predicting Emotions in Couples' Conflict Interactions using Speech Data [3.618388731766687]
対立の間、ロマンチックなパートナーが相互にどのように相互作用するかは、相互作用の最後にどのように感じるかに影響します。
本研究では,368人のドイツ語話者スイス人カップルのデータセットから,BERTを用いて言語的特徴(つまり,パートナーが言ったこと)とopenSMILEを抽出し,パラ言語的特徴(すなわち,どのように言ったか)を抽出した。
これらの機能に基づいて、私たちは機械学習モデルをトレーニングし、対立間の相互作用の後、パートナーが肯定的または否定的と感じているかどうかを予測しました。
論文 参考訳(メタデータ) (2021-06-03T01:15:41Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。