論文の概要: Multi-Task Learning for Depression Detection in Dialogs
- arxiv url: http://arxiv.org/abs/2208.10250v1
- Date: Thu, 21 Jul 2022 07:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-28 22:34:32.829678
- Title: Multi-Task Learning for Depression Detection in Dialogs
- Title(参考訳): 対話における抑うつ検出のためのマルチタスク学習
- Authors: Chuyuan Li (SEMAGRAMME, LORIA), Chlo\'e Braud (IRIT), Maxime Amblard
(SEMAGRAMME, LORIA)
- Abstract要約: この研究はダイアログにおける抑うつ信号を調べる。
我々は,抑うつと感情が相互に情報伝達できるという仮説を立て,話題や対話行動予測を通じて,対話構造の影響について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depression is a serious mental illness that impacts the way people
communicate, especially through their emotions, and, allegedly, the way they
interact with others. This work examines depression signals in dialogs, a less
studied setting that suffers from data sparsity. We hypothesize that depression
and emotion can inform each other, and we propose to explore the influence of
dialog structure through topic and dialog act prediction. We investigate a
Multi-Task Learning (MTL) approach, where all tasks mentioned above are learned
jointly with dialog-tailored hierarchical modeling. We experiment on the DAIC
and DailyDialog corpora-both contain dialogs in English-and show important
improvements over state-ofthe-art on depression detection (at best 70.6% F 1),
which demonstrates the correlation of depression with emotion and dialog
organization and the power of MTL to leverage information from different
sources.
- Abstract(参考訳): うつ病は深刻な精神疾患であり、人々のコミュニケーション、特に感情を通じて、他人との対話の仕方に影響を与える。
本研究は、データのスパーシティに苦しむ、あまり研究されていないダイアログにおける抑うつ信号を調べる。
抑うつと感情が相互に情報を伝達できると仮定し,トピックと対話行動の予測を通じて対話構造の影響を検討する。
上述のタスクをダイアログ調整階層モデルと併用して学習するマルチタスク学習(MTL)手法について検討する。
daicとdailydialogのコーパスはどちらも英語のダイアログを含んでおり、うつ病検出の最先端技術(最大70.6%f1)よりも重要な改善を示し、うつ病と感情と対話の組織、異なる情報源の情報を活用するmtlの力の相関を示す。
関連論文リスト
- Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Enhancing Depression-Diagnosis-Oriented Chat with Psychological State Tracking [27.96718892323191]
Depression-diagnosis-oriented chatは、自己表現の患者を誘導し、うつ病検出の主要な症状を収集することを目的としている。
最近の研究は、面接に基づくうつ病の診断をシミュレートするために、タスク指向対話とchitchatを組み合わせることに焦点を当てている。
対話をガイドするための明確なフレームワークは検討されていない。
論文 参考訳(メタデータ) (2024-03-12T07:17:01Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Affective Visual Dialog: A Large-Scale Benchmark for Emotional Reasoning Based on Visually Grounded Conversations [31.707018753687098]
本稿では,視覚的な会話における感情の形成を理解するためのテストベッドとして,Affective Visual Dialogを紹介した。
この課題には,対話型質問回答,対話型感情予測,感情説明生成という3つのスキルが含まれる。
私たちの重要な貢献は、AffectVisDialと呼ばれる大規模なデータセットの収集です。
論文 参考訳(メタデータ) (2023-08-30T22:50:32Z) - M3ED: Multi-modal Multi-scene Multi-label Emotional Dialogue Database [139.08528216461502]
マルチモーダルマルチシーンマルチラベル感情対話データセットM3EDを提案する。
M3EDには56の異なるテレビシリーズの990のダイアドの感情対話があり、合計9,082回、24,449発の発声がある。
我々の知る限りでは、M3EDは中国語における最初のマルチモーダル感情対話データセットである。
論文 参考訳(メタデータ) (2022-05-09T06:52:51Z) - Perspective-taking and Pragmatics for Generating Empathetic Responses
Focused on Emotion Causes [50.569762345799354]
i) 相手の感情が発話から引き起こされる原因となる単語を特定することと, (ii) 応答生成における特定の単語を反映することである。
社会的認知からインスピレーションを得て、生成的推定を用いて、感情が単語レベルのラベルのない発話から単語を推論する。
論文 参考訳(メタデータ) (2021-09-18T04:22:49Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。