論文の概要: Investigating Acoustic-Textual Emotional Inconsistency Information for Automatic Depression Detection
- arxiv url: http://arxiv.org/abs/2412.18614v1
- Date: Mon, 09 Dec 2024 02:52:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 10:01:40.608416
- Title: Investigating Acoustic-Textual Emotional Inconsistency Information for Automatic Depression Detection
- Title(参考訳): 自動抑うつ検出のための音響的感情不整合情報の検討
- Authors: Rongfeng Su, Changqing Xu, Xinyi Wu, Feng Xu, Xie Chen, Lan Wangt, Nan Yan,
- Abstract要約: 従来の研究では、単一の音響的感情ラベルからの感情的特徴がうつ病の診断精度を高めることが示されている。
うつ病の人は、意外にも穏やかな方法で否定的な感情的内容を伝えるかもしれない。
この研究は、感情的表現の不整合情報をうつ病検出に組み込んだ最初のものである。
- 参考スコア(独自算出の注目度): 18.797661194307683
- License:
- Abstract: Previous studies have demonstrated that emotional features from a single acoustic sentiment label can enhance depression diagnosis accuracy. Additionally, according to the Emotion Context-Insensitivity theory and our pilot study, individuals with depression might convey negative emotional content in an unexpectedly calm manner, showing a high degree of inconsistency in emotional expressions during natural conversations. So far, few studies have recognized and leveraged the emotional expression inconsistency for depression detection. In this paper, a multimodal cross-attention method is presented to capture the Acoustic-Textual Emotional Inconsistency (ATEI) information. This is achieved by analyzing the intricate local and long-term dependencies of emotional expressions across acoustic and textual domains, as well as the mismatch between the emotional content within both domains. A Transformer-based model is then proposed to integrate this ATEI information with various fusion strategies for detecting depression. Furthermore, a scaling technique is employed to adjust the ATEI feature degree during the fusion process, thereby enhancing the model's ability to discern patients with depression across varying levels of severity. To best of our knowledge, this work is the first to incorporate emotional expression inconsistency information into depression detection. Experimental results on a counseling conversational dataset illustrate the effectiveness of our method.
- Abstract(参考訳): 従来の研究では、単一の音響的感情ラベルからの感情的特徴がうつ病の診断精度を高めることが示されている。
さらに、感情文脈不感理論とパイロットスタディによれば、うつ病の人は意外にも穏やかな方法で否定的な感情的内容を伝えることができ、自然な会話の間に感情的表現に高い一貫性を示す。
これまでのところ、うつ病検出のための感情的表現の不整合を認識し、活用する研究はほとんどない。
本稿では,マルチモーダル・クロスアテンション手法を提案する。
これは、音響的およびテキスト的領域における感情表現の局所的および長期的依存関係の複雑な解析と、両方の領域内の感情内容のミスマッチによって達成される。
次に、Transformer ベースのモデルにより、この ATEI 情報を様々な融合戦略と統合し、うつ病を検出する。
さらに、融合過程におけるATEI特徴度を調整するためにスケーリング手法を用いて、重度の異なるうつ病患者を識別するモデルの能力を高める。
我々の知識を最大限に活用するために、この研究は、感情的表現の不整合情報をうつ病検出に組み込んだ最初のものである。
カウンセリングによる会話データセットの実験結果から,提案手法の有効性が示唆された。
関連論文リスト
- Deep Learning-Based Feature Fusion for Emotion Analysis and Suicide Risk Differentiation in Chinese Psychological Support Hotlines [18.81118590515144]
本研究では,ホットライン相互作用中に表現される感情を分析し理解するために,ピッチ音響特徴と深層学習に基づく特徴を組み合わせる手法を提案する。
中国最大の心理支援ホットラインのデータを用いて、負のバイナリ感情分類においてF1スコア79.13%を達成した。
本研究は, 心理的評価尺度と自殺リスク予測の新たな特徴として, 感情変動強度と頻度が有効であることが示唆された。
論文 参考訳(メタデータ) (2025-01-15T10:09:38Z) - Enhancing Depression-Diagnosis-Oriented Chat with Psychological State Tracking [27.96718892323191]
Depression-diagnosis-oriented chatは、自己表現の患者を誘導し、うつ病検出の主要な症状を収集することを目的としている。
最近の研究は、面接に基づくうつ病の診断をシミュレートするために、タスク指向対話とchitchatを組み合わせることに焦点を当てている。
対話をガイドするための明確なフレームワークは検討されていない。
論文 参考訳(メタデータ) (2024-03-12T07:17:01Z) - Measuring Non-Typical Emotions for Mental Health: A Survey of Computational Approaches [57.486040830365646]
ストレスと抑うつは日々のタスクにおけるエンゲージメントに影響を与え、彼らの相互作用を理解する必要性を強調します。
この調査は、ストレス、抑うつ、エンゲージメントを分析する計算手法を同時に探求した最初のものである。
論文 参考訳(メタデータ) (2024-03-09T11:16:09Z) - CauESC: A Causal Aware Model for Emotional Support Conversation [79.4451588204647]
既存のアプローチは、苦痛の感情の原因を無視します。
彼らは、話者間の相互作用における感情的ダイナミクスよりも、探究者自身の精神状態に焦点を当てている。
本稿では、まず、苦痛の感情要因と、その原因によって引き起こされる感情効果を認識する新しいフレームワークCauESCを提案する。
論文 参考訳(メタデータ) (2024-01-31T11:30:24Z) - Language and Mental Health: Measures of Emotion Dynamics from Text as
Linguistic Biosocial Markers [30.656554495536618]
本研究では,ツィート感情動態とメンタルヘルス障害との関連について検討した。
調査対象のUEDメトリクスはそれぞれ,ユーザの自己開示診断によって異なることがわかった。
この研究は、感情力学に関連する言語的手がかりが、精神疾患のバイオ社会マーカーとして重要な役割を担っていることを示す重要な初期の証拠を提供する。
論文 参考訳(メタデータ) (2023-10-26T13:00:26Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - NLP meets psychotherapy: Using predicted client emotions and
self-reported client emotions to measure emotional coherence [44.82634301507483]
感情経験と感情表現の一貫性は、顧客にとって重要であると考えられる。
セラピーにおける感情の主観的経験と感情表現の心電図について検討した研究はない。
本研究は、トランスフォーマーに基づく感情認識モデルから感情予測を用いて感情コヒーレンスを研究するエンド・ツー・エンドのアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-22T14:28:41Z) - Climate and Weather: Inspecting Depression Detection via Emotion
Recognition [25.290414205116107]
本稿では,うつ病検出のための感情認識モデルから抽出した事前学習特徴を用いて,マルチモーダルうつ病検出を行う。
提案した感情伝達により,DAIC-WOZの抑うつ検出性能が向上し,トレーニング安定性が向上する。
論文 参考訳(メタデータ) (2022-04-29T13:44:22Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。