論文の概要: The Pursuit of Empathy: Evaluating Small Language Models for PTSD Dialogue Support
- arxiv url: http://arxiv.org/abs/2505.15065v2
- Date: Sat, 20 Sep 2025 08:07:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 14:36:45.091569
- Title: The Pursuit of Empathy: Evaluating Small Language Models for PTSD Dialogue Support
- Title(参考訳): 共感の探索:PTSD対話支援のための小言語モデルの評価
- Authors: Suhas BN, Yash Mahajan, Dominik Mattioli, Andrew M. Sherrill, Rosa I. Arriaga, Chris W. Wiese, Saeed Abdullah,
- Abstract要約: 本稿では,PTSD患者に対する共感応答を生成するための小言語モデルの能力について検討する。
Trauma-Informed Dialogue for Empathy (TIDE) は500の多様な臨床現場のPTSDペルソナにまたがる1万の2ターン会話からなる新しいデータセットである。
- 参考スコア(独自算出の注目度): 14.137398642966138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the capacity of small language models (0.5B-5B parameters) to generate empathetic responses for individuals with PTSD. We introduce Trauma-Informed Dialogue for Empathy (TIDE), a novel dataset comprising 10,000 two-turn conversations across 500 diverse, clinically-grounded PTSD personas (https://huggingface.co/datasets/yenopoya/TIDE). Using frontier model outputs as ground truth, we evaluate eight small LLMs in zero-shot settings and after fine-tuning. Fine-tuning enhances empathetic capabilities, improving cosine similarity and perceived empathy, although gains vary across emotional scenarios and smaller models exhibit a "knowledge transfer ceiling." As expected, Claude Sonnet 3.5 consistently outperforms all models, but surprisingly, the smaller models often approach human-rated empathy levels. Demographic analyses showed that older adults favored responses that validated distress before offering support (p = .004), while graduate-educated users preferred emotionally layered replies in specific scenarios. Gender-based differences were minimal (p > 0.15), suggesting the feasibility of broadly empathetic model designs. This work offers insights into building resource-efficient, emotionally intelligent systems for mental health support.
- Abstract(参考訳): 本稿では,PTSD患者に対する共感応答を生成するための小言語モデル(0.5B-5Bパラメータ)の能力について検討する。
本稿では,500種類のPTSDペルソナ(https://huggingface.co/datasets/yenopoya/TIDE)を対象に,Trauma-Informed Dialogue for Empathy (TIDE)を紹介した。
また,フロンティアモデルを用いて,ゼロショット設定と微調整後の8つの小さなLCMを評価した。
微調整は共感能力を高め、コサイン類似性を改善し、共感を知覚するが、感情的なシナリオによって改善され、より小さなモデルでは「知識伝達天井」が現れる。
予想通り、Claude Sonnet 3.5は一貫して全てのモデルより優れていますが、驚くべきことに、小さなモデルはしばしば人間の評価された共感レベルに近づきます。
デモグラフィック分析では、高齢者はサポートを提供する前に苦悩を証明した反応(p = .004)を好んだが、卒業生のユーザーは特定のシナリオで感情的に階層化された反応を好んだ。
ジェンダーベースの違いは最小限 (p > 0.15) であり、広い共感モデル設計の可能性を示している。
この研究は、メンタルヘルス支援のためのリソース効率が高く、感情的に知的なシステムを構築するための洞察を提供する。
関連論文リスト
- Reframe Your Life Story: Interactive Narrative Therapist and Innovative Moment Assessment with Large Language Models [92.93521294357058]
物語療法は、個人が問題のある人生の物語を代替品の力に変えるのに役立つ。
現在のアプローチでは、特殊精神療法ではリアリズムが欠如しており、時間とともに治療の進行を捉えることができない。
Int(Interactive Narrative Therapist)は、治療段階を計画し、反射レベルを誘導し、文脈的に適切な専門家のような反応を生成することによって、専門家の物語セラピストをシミュレートする。
論文 参考訳(メタデータ) (2025-07-27T11:52:09Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Modeling Challenging Patient Interactions: LLMs for Medical Communication Training [39.67477471073807]
本研究は,患者とのコミュニケーションスタイルをシミュレートするためのLarge Language Models (LLMs) を提案する。
感情的・会話的特徴を具現化した仮想患者(VP)を開発した。
医療専門家はこれらのVPを評価し、信頼度(3.8 pm 1.0$;合理化:3.7 pm 0.8$)を評価し、彼らのスタイルを正確に識別した。
論文 参考訳(メタデータ) (2025-03-28T09:04:10Z) - MentalArena: Self-play Training of Language Models for Diagnosis and Treatment of Mental Health Disorders [59.515827458631975]
メンタルヘルス障害は世界で最も深刻な病気の1つである。
プライバシーに関する懸念は、パーソナライズされた治療データのアクセシビリティを制限する。
MentalArenaは、言語モデルをトレーニングするためのセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T13:06:40Z) - Measuring Psychological Depth in Language Models [50.48914935872879]
本稿では,文学理論に根ざした新たな枠組みである心理的深度尺度(PDS)を紹介する。
PDS(0.72 クリッペンドルフのα)に基づいて人間が一貫して物語を評価できることを示し、我々の枠組みを実証的に検証する。
驚いたことに、GPT-4のストーリーはRedditから入手した高評価の人文記事と統計的に区別できない。
論文 参考訳(メタデータ) (2024-06-18T14:51:54Z) - Response Generation for Cognitive Behavioral Therapy with Large Language
Models: Comparative Study with Socratic Questioning [6.400704401007114]
本研究では,感情変化,認知的変化,対話品質などの主観的評価に及ぼす生成応答の影響について検討した。
GPT-4を使用すると、気分の変化、共感、その他の対話の質が著しく向上する。
論文 参考訳(メタデータ) (2024-01-29T08:53:41Z) - CASE: Aligning Coarse-to-Fine Cognition and Affection for Empathetic
Response Generation [59.8935454665427]
共感的対話モデルは、通常、感情的な側面のみを考慮するか、孤立して認知と愛情を扱う。
共感的対話生成のためのCASEモデルを提案する。
論文 参考訳(メタデータ) (2022-08-18T14:28:38Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - World Trade Center responders in their own words: Predicting PTSD
symptom trajectories with AI-based language analyses of interviews [6.700088567524812]
本研究は、応答者間のPTSD症状の軌跡を予測するためのAIに基づく言語アセスメントの能力を検証した。
横断的に、より大きな抑うつ言語(beta=0.32; p43)と一対一の特異な使用(beta=0.31; p44)は、症状の重症度の増加に関連していた。
長文使用率 (beta=-0.36; p7) と長文使用率 (beta=-0.36; p7) は改善を予測した。
論文 参考訳(メタデータ) (2020-11-12T15:57:23Z) - LAXARY: A Trustworthy Explainable Twitter Analysis Model for
Post-Traumatic Stress Disorder Assessment [1.776746672434207]
本稿では,TwitterユーザのPTSDアセスメントを検知し,表現するためのLAXARYモデルを提案する。
まず,臨床検査ツールを用いて実Twitterユーザから臨床PTSD評価データを収集する。
そして、PTSD言語辞書と機械学習モデルを用いて、PTSDステータスと対応するTwitterユーザの強度を検出するための調査ツールを埋める。
論文 参考訳(メタデータ) (2020-03-16T20:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。