論文の概要: Feel the Difference? A Comparative Analysis of Emotional Arcs in Real and LLM-Generated CBT Sessions
- arxiv url: http://arxiv.org/abs/2508.20764v1
- Date: Thu, 28 Aug 2025 13:19:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.416157
- Title: Feel the Difference? A Comparative Analysis of Emotional Arcs in Real and LLM-Generated CBT Sessions
- Title(参考訳): 違いはあるか? : 実時間およびLLM生成CBTセッションにおける感情的アークの比較分析
- Authors: Xiaoyi Wang, Jiwei Zhang, Guangtao Zhang, Honglei Guo,
- Abstract要約: 実際の認知行動療法とLLMによる認知行動療法の比較実験を行った。
合成対話は流動的で構造的に整合的であるが、実際の会話から重要な感情特性へと分岐する。
これらの知見は、現在のLCM生成療法データの限界を浮き彫りにし、メンタルヘルス応用における感情的忠実さの重要性を強調した。
- 参考スコア(独自算出の注目度): 5.30767844702791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic therapy dialogues generated by large language models (LLMs) are increasingly used in mental health NLP to simulate counseling scenarios, train models, and supplement limited real-world data. However, it remains unclear whether these synthetic conversations capture the nuanced emotional dynamics of real therapy. In this work, we conduct the first comparative analysis of emotional arcs between real and LLM-generated Cognitive Behavioral Therapy dialogues. We adapt the Utterance Emotion Dynamics framework to analyze fine-grained affective trajectories across valence, arousal, and dominance dimensions. Our analysis spans both full dialogues and individual speaker roles (counselor and client), using real sessions transcribed from public videos and synthetic dialogues from the CACTUS dataset. We find that while synthetic dialogues are fluent and structurally coherent, they diverge from real conversations in key emotional properties: real sessions exhibit greater emotional variability,more emotion-laden language, and more authentic patterns of reactivity and regulation. Moreover, emotional arc similarity between real and synthetic speakers is low, especially for clients. These findings underscore the limitations of current LLM-generated therapy data and highlight the importance of emotional fidelity in mental health applications. We introduce RealCBT, a curated dataset of real CBT sessions, to support future research in this space.
- Abstract(参考訳): 大規模言語モデル(LLM)によって生成される合成療法の対話は、カウンセリングシナリオのシミュレート、訓練モデル、限られた実世界のデータを補うために、メンタルヘルスのNLPでますます使われている。
しかし、これらの合成会話が実際の治療の微妙な感情的ダイナミクスを捉えているかどうかは不明である。
本研究では,現実とLLM生成の認知行動療法対話における感情弧の比較分析を行った。
我々はUtterance Emotion Dynamicsフレームワークを適用し、原子価、覚醒、支配次元をまたいだ微粒な感情軌跡を解析する。
我々の分析は、公開ビデオから書き起こされた実際のセッションと、CACTUSデータセットからの合成対話を用いて、完全な対話と個々の話者の役割(カウンセラーとクライアント)の両方にまたがる。
合成対話は流動的で構造的に整合的であるが、それらは重要な感情特性において実際の会話から分岐している。
さらに、特に顧客にとって、実際の話者と合成話者の感情的アーク類似性が低い。
これらの知見は、現在のLCM生成療法データの限界を浮き彫りにし、メンタルヘルス応用における感情的忠実さの重要性を強調した。
本稿では,実際のCBTセッションをキュレートしたデータセットであるRealCBTを紹介し,今後の研究を支援する。
関連論文リスト
- EmoCAST: Emotional Talking Portrait via Emotive Text Description [56.42674612728354]
EmoCASTは、正確なテキスト駆動感情合成のための拡散ベースのフレームワークである。
外観モデリングでは、感情的なプロンプトはテキスト誘導の分離された感情的モジュールを通して統合される。
EmoCASTは、現実的で感情的に表現され、音声同期されたトーキーヘッドビデオを生成する、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-08-28T10:02:06Z) - Reframe Your Life Story: Interactive Narrative Therapist and Innovative Moment Assessment with Large Language Models [92.93521294357058]
物語療法は、個人が問題のある人生の物語を代替品の力に変えるのに役立つ。
現在のアプローチでは、特殊精神療法ではリアリズムが欠如しており、時間とともに治療の進行を捉えることができない。
Int(Interactive Narrative Therapist)は、治療段階を計画し、反射レベルを誘導し、文脈的に適切な専門家のような反応を生成することによって、専門家の物語セラピストをシミュレートする。
論文 参考訳(メタデータ) (2025-07-27T11:52:09Z) - REALTALK: A 21-Day Real-World Dataset for Long-Term Conversation [51.97224538045096]
本稿では、21日間のメッセージアプリ対話のコーパスであるREALTALKを紹介する。
EI属性とペルソナの整合性を比較し,現実世界の対話による課題を理解する。
その結果,モデルでは対話履歴のみからユーザをシミュレートすることが困難であり,特定のユーザチャットの微調整はペルソナのエミュレーションを改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T20:29:01Z) - Emotion-Aware Embedding Fusion in LLMs (Flan-T5, LLAMA 2, DeepSeek-R1, and ChatGPT 4) for Intelligent Response Generation [0.5454121013433086]
本研究は,精神医学的応用における大規模言語モデル(LLM)の感情的・文脈的理解を高めることの課題に対処する。
本稿では,階層的融合と注意機構を統合した新しいフレームワークであるEmotion-Aware Embedding Fusionを紹介する。
このシステムは、既存のメンタルヘルスプラットフォームに統合され、検索されたセラピーセッションデータに基づいてパーソナライズされた応答を生成することができる。
論文 参考訳(メタデータ) (2024-10-02T08:01:05Z) - Are Large Language Models Possible to Conduct Cognitive Behavioral Therapy? [13.0263170692984]
大規模言語モデル(LLM)が検証され、心理的補助療法の新たな可能性を提供する。
精神保健の専門家は、LSMを治療に使用することについて多くの懸念を抱いている。
自然言語処理性能に優れた4つのLLM変種を評価した。
論文 参考訳(メタデータ) (2024-07-25T03:01:47Z) - Chain of Empathy: Enhancing Empathetic Response of Large Language Models Based on Psychotherapy Models [2.679689033125693]
本稿では,心理療法の知見を活かして,大規模言語モデル(LLM)を誘導し,人間の感情状態を理解する新しい方法である「共感の連鎖(CoE)」を提案する。
この方法は認知行動療法(CBT)、弁証的行動療法(DBT)、人中心療法(PCT)、現実療法(RT)など様々な心理療法のアプローチにインスパイアされている。
論文 参考訳(メタデータ) (2023-11-02T02:21:39Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。