論文の概要: AI in Mental Health: Emotional and Sentiment Analysis of Large Language Models' Responses to Depression, Anxiety, and Stress Queries
- arxiv url: http://arxiv.org/abs/2508.11285v1
- Date: Fri, 15 Aug 2025 07:47:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.787183
- Title: AI in Mental Health: Emotional and Sentiment Analysis of Large Language Models' Responses to Depression, Anxiety, and Stress Queries
- Title(参考訳): メンタルヘルスにおけるAI:大言語モデルの抑うつ,不安,ストレスに対する反応の感情的・感情的分析
- Authors: Arya VarastehNezhad, Reza Tavasoli, Soroush Elyasi, MohammadHossein LotfiNia, Hamed Farbeh,
- Abstract要約: 抑うつ、不安、ストレスは、個人が大規模言語モデル(LLM)から情報を求めるように促す、広範囲にわたるメンタルヘルスの懸念である。
本研究は, うつ, 不安, ストレスに関する現実的な質問に対して, 8つのLSMが6人のユーザプロファイルに対して, どのように回答するかを検討する。
モデルは2,880の回答を生成し、最新式のツールを使って感情と感情をスコア付けしました。
- 参考スコア(独自算出の注目度): 1.1068280788997429
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depression, anxiety, and stress are widespread mental health concerns that increasingly drive individuals to seek information from Large Language Models (LLMs). This study investigates how eight LLMs (Claude Sonnet, Copilot, Gemini Pro, GPT-4o, GPT-4o mini, Llama, Mixtral, and Perplexity) reply to twenty pragmatic questions about depression, anxiety, and stress when those questions are framed for six user profiles (baseline, woman, man, young, old, and university student). The models generated 2,880 answers, which we scored for sentiment and emotions using state-of-the-art tools. Our analysis revealed that optimism, fear, and sadness dominated the emotional landscape across all outputs, with neutral sentiment maintaining consistently high values. Gratitude, joy, and trust appeared at moderate levels, while emotions such as anger, disgust, and love were rarely expressed. The choice of LLM significantly influenced emotional expression patterns. Mixtral exhibited the highest levels of negative emotions including disapproval, annoyance, and sadness, while Llama demonstrated the most optimistic and joyful responses. The type of mental health condition dramatically shaped emotional responses: anxiety prompts elicited extraordinarily high fear scores (0.974), depression prompts generated elevated sadness (0.686) and the highest negative sentiment, while stress-related queries produced the most optimistic responses (0.755) with elevated joy and trust. In contrast, demographic framing of queries produced only marginal variations in emotional tone. Statistical analyses confirmed significant model-specific and condition-specific differences, while demographic influences remained minimal. These findings highlight the critical importance of model selection in mental health applications, as each LLM exhibits a distinct emotional signature that could significantly impact user experience and outcomes.
- Abstract(参考訳): 抑うつ、不安、ストレスは、個人が大規模言語モデル(LLM)から情報を求めるように促す、広範囲にわたるメンタルヘルスの懸念である。
本研究では,8つのLCM(Claude Sonnet, Copilot, Gemini Pro, GPT-4o, GPT-4o mini, Llama, Mixtral, Perplexity)が,6人のユーザプロファイル(ベースライン,女性,男性,若年者,大学生)に対して,抑うつ,不安,ストレスに関する現実的な質問に対してどのように回答するかを検討する。
モデルは2,880の回答を生成し、最新式のツールを使って感情と感情をスコア付けしました。
分析の結果、楽観主義、恐怖、悲しみがすべてのアウトプットの感情的な景観を支配し、中立的な感情が常に高い価値を維持していることがわかった。
感謝、喜び、信頼は適度なレベルに現れ、怒り、嫌悪、愛といった感情は滅多に表現されなかった。
LLMの選択は感情表現パターンに大きく影響した。
ラマは最も楽観的で喜びに満ちた反応を示したが、ミクトラールは不満、不快感、悲しみなどの否定的な感情の最高レベルを示した。
不安は異常に高い恐怖スコア(0.974)を誘発し、抑うつが引き起こされると悲しみが増し(0.686)、最もネガティブな感情が引き起こされ、ストレス関連の質問は喜びと信頼が増す最も楽観的な反応(0.755)を生み出した。
対照的に、クエリの階層的フレーミングは感情的なトーンの限界的な変化しか生み出さなかった。
統計学的分析では, モデル別と条件別では有意な差が認められたが, 人口統計学的影響は小さかった。
これらの知見は,精神保健分野におけるモデル選択の重要性を浮き彫りにした。
関連論文リスト
- Emotion Granularity from Text: An Aggregate-Level Indicator of Mental Health [25.166884750592175]
心理学において、個人の感情概念を区別する能力の変化を感情の粒度と呼ぶ。
高い感情の粒度は、より良い精神と身体の健康と結びついている。
低感情の粒度は、不適応な感情制御戦略や健康状態の悪化と結びついている。
論文 参考訳(メタデータ) (2024-03-04T18:12:10Z) - CauESC: A Causal Aware Model for Emotional Support Conversation [79.4451588204647]
既存のアプローチは、苦痛の感情の原因を無視します。
彼らは、話者間の相互作用における感情的ダイナミクスよりも、探究者自身の精神状態に焦点を当てている。
本稿では、まず、苦痛の感情要因と、その原因によって引き起こされる感情効果を認識する新しいフレームワークCauESCを提案する。
論文 参考訳(メタデータ) (2024-01-31T11:30:24Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - DepressionEmo: A novel dataset for multilabel classification of
depression emotions [6.26397257917403]
DepressionEmoは、Redditの長いユーザー投稿の6037例によって、うつ病に関連する8つの感情を検出するために設計されたデータセットである。
このデータセットは、事前訓練されたモデルのゼロショット分類による入力に対する多数決によって作成された。
本稿では,SVM,XGBoost,Light GBMなどの機械学習手法と,BERT,GAN-BERT,BARTなどのディープラーニング手法の2つのグループに分類されるテキスト分類手法を提案する。
論文 参考訳(メタデータ) (2024-01-09T16:25:31Z) - Language and Mental Health: Measures of Emotion Dynamics from Text as
Linguistic Biosocial Markers [30.656554495536618]
本研究では,ツィート感情動態とメンタルヘルス障害との関連について検討した。
調査対象のUEDメトリクスはそれぞれ,ユーザの自己開示診断によって異なることがわかった。
この研究は、感情力学に関連する言語的手がかりが、精神疾患のバイオ社会マーカーとして重要な役割を担っていることを示す重要な初期の証拠を提供する。
論文 参考訳(メタデータ) (2023-10-26T13:00:26Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Inducing anxiety in large language models can induce bias [47.85323153767388]
我々は、確立された12の大規模言語モデル(LLM)に焦点を当て、精神医学でよく用いられる質問紙に答える。
以上の結果から,最新のLSMの6つが不安アンケートに強く反応し,人間に匹敵する不安スコアが得られた。
不安誘発は、LSMのスコアが不安アンケートに影響を及ぼすだけでなく、人種差別や老化などの偏見を測る以前に確立されたベンチマークにおいて、それらの行動に影響を及ぼす。
論文 参考訳(メタデータ) (2023-04-21T16:29:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。