論文の概要: Evaluating LLMs for Anxiety, Depression, and Stress Detection Evaluating Large Language Models for Anxiety, Depression, and Stress Detection: Insights into Prompting Strategies and Synthetic Data
- arxiv url: http://arxiv.org/abs/2511.07044v1
- Date: Mon, 10 Nov 2025 12:38:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.244107
- Title: Evaluating LLMs for Anxiety, Depression, and Stress Detection Evaluating Large Language Models for Anxiety, Depression, and Stress Detection: Insights into Prompting Strategies and Synthetic Data
- Title(参考訳): 不安・抑うつ・ストレス検出のためのLLMの評価 不安・抑うつ・ストレス検出のための大規模言語モデルの評価:提案戦略と合成データへの考察
- Authors: Mihael Arcan, David-Paul Niland,
- Abstract要約: メンタルヘルス障害は世界中の成人の5分の1以上に影響を与える。
臨床面接のDAIC-WOZデータセットを用いて、不安、抑うつ、ストレス分類のモデルを微調整した。
応力検出では、ゼロショット合成法がF1の0.884、ROC AUCの0.886に達した。
- 参考スコア(独自算出の注目度): 1.5930654066091687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mental health disorders affect over one-fifth of adults globally, yet detecting such conditions from text remains challenging due to the subtle and varied nature of symptom expression. This study evaluates multiple approaches for mental health detection, comparing Large Language Models (LLMs) such as Llama and GPT with classical machine learning and transformer-based architectures including BERT, XLNet, and Distil-RoBERTa. Using the DAIC-WOZ dataset of clinical interviews, we fine-tuned models for anxiety, depression, and stress classification and applied synthetic data generation to mitigate class imbalance. Results show that Distil-RoBERTa achieved the highest F1 score (0.883) for GAD-2, while XLNet outperformed others on PHQ tasks (F1 up to 0.891). For stress detection, a zero-shot synthetic approach (SD+Zero-Shot-Basic) reached an F1 of 0.884 and ROC AUC of 0.886. Findings demonstrate the effectiveness of transformer-based models and highlight the value of synthetic data in improving recall and generalization. However, careful calibration is required to prevent precision loss. Overall, this work emphasizes the potential of combining advanced language models and data augmentation to enhance automated mental health assessment from text.
- Abstract(参考訳): メンタルヘルス障害は、世界中の成人の5分の1以上に影響を与えるが、症状の微妙で多様な性質のため、テキストからそのような状態を検出することは困難である。
本研究では,Llama や GPT などの大規模言語モデル (LLM) と BERT,XLNet,Distil-RoBERTa などの古典的機械学習およびトランスフォーマーベースアーキテクチャを比較し,メンタルヘルス検出のための複数のアプローチを評価する。
臨床面接のDAIC-WOZデータセットを用いて、不安、抑うつ、ストレス分類のモデルを微調整し、クラス不均衡を軽減するために合成データ生成を適用した。
その結果, Distil-RoBERTa は GAD-2 において最高 F1 スコア (0.883) を達成し, XLNet は PHQ タスク (0.891 まで) において他のタスクよりも優れていた。
応力検出のため、ゼロショット合成法(SD+ゼロショットベース)は0.884のF1、ROC AUCは0.886のF1に達した。
検索は、トランスフォーマーモデルの有効性を示し、リコールと一般化を改善するための合成データの価値を強調している。
しかし、精度の低下を防ぐためには慎重な校正が必要である。
この研究は、テキストから自動的なメンタルヘルスアセスメントを強化するために、高度な言語モデルとデータ拡張を組み合わせる可能性を強調している。
関連論文リスト
- LLMCARE: early detection of cognitive impairment via transformer models enhanced by LLM-generated synthetic data [32.69241041313969]
アルツハイマー病と関連する認知症は、米国で500万人近い高齢者に影響を及ぼす。
本研究は,トランスフォーマー埋め込みと手作り言語的特徴を融合した音声ベースのスクリーニングパイプラインを開発し,評価する。
論文 参考訳(メタデータ) (2025-08-08T13:44:55Z) - Advancing Mental Disorder Detection: A Comparative Evaluation of Transformer and LSTM Architectures on Social Media [0.16385815610837165]
本研究では,Long Short-Term Memory (LSTM) に基づくアプローチに対して,最先端のトランスフォーマーモデルの総合評価を行う。
Redditのメンタルヘルス障害分類のためのテキスト埋め込み技術を用いて,大規模な注釈付きデータセットを構築した。
実験により,従来のディープラーニングモデルよりもトランスフォーマーモデルの方が優れた性能を示した。
論文 参考訳(メタデータ) (2025-07-17T04:58:31Z) - Detecting PTSD in Clinical Interviews: A Comparative Analysis of NLP Methods and Large Language Models [6.916082619621498]
外傷後ストレス障害 (PTSD) は, 臨床現場ではまだ診断されていない。
本研究では,臨床面接書からPTSDを検出するための自然言語処理手法について検討した。
論文 参考訳(メタデータ) (2025-04-01T22:06:28Z) - Enhanced Large Language Models for Effective Screening of Depression and Anxiety [44.81045754697482]
本稿では,臨床面接を合成するためのパイプラインを導入し,対話型対話を1,157件紹介する(PsyInterview)。
EmoScanは、粗末(不安やうつ病など)と微妙な障害(うつ病など)を区別し、高品質な面接を行う。
論文 参考訳(メタデータ) (2025-01-15T12:42:09Z) - Machine Learning for ALSFRS-R Score Prediction: Making Sense of the Sensor Data [44.99833362998488]
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)は、急速に進行する神経変性疾患である。
iDPP@CLEF 2024チャレンジを先導した今回の調査は,アプリから得られるセンサデータを活用することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-10T19:17:23Z) - Large Language Models to Identify Social Determinants of Health in
Electronic Health Records [2.168737004368243]
健康の社会的決定因子(SDoH)は、患者の結果に重要な影響を与えるが、電子健康記録(EHR)から不完全に収集される。
本研究では,EHRにおける自由テキストからSDoHを抽出する大規模言語モデルについて検討した。
800の患者ノートをSDoHカテゴリーにアノテートし,いくつかのトランスフォーマーモデルを評価した。
論文 参考訳(メタデータ) (2023-08-11T19:18:35Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。