論文の概要: Interpretable Depression Detection from Social Media Text Using LLM-Derived Embeddings
- arxiv url: http://arxiv.org/abs/2506.06616v1
- Date: Sat, 07 Jun 2025 01:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.362719
- Title: Interpretable Depression Detection from Social Media Text Using LLM-Derived Embeddings
- Title(参考訳): LLM-Derived Embeddings を用いたソーシャルメディアテキストからの解釈型デプレッション検出
- Authors: Samuel Kim, Oghenemaro Imieye, Yunting Yin,
- Abstract要約: ソーシャルメディアにおける抑うつ言語検出の精度と解釈は、精神状態の早期介入に有用である。
ソーシャルメディアデータを含む3つの分類課題に対して,大規模言語モデル(LLM)と従来の機械学習分類器の性能について検討した。
- 参考スコア(独自算出の注目度): 0.44865923696339866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and interpretable detection of depressive language in social media is useful for early interventions of mental health conditions, and has important implications for both clinical practice and broader public health efforts. In this paper, we investigate the performance of large language models (LLMs) and traditional machine learning classifiers across three classification tasks involving social media data: binary depression classification, depression severity classification, and differential diagnosis classification among depression, PTSD, and anxiety. Our study compares zero-shot LLMs with supervised classifiers trained on both conventional text embeddings and LLM-generated summary embeddings. Our experiments reveal that while zero-shot LLMs demonstrate strong generalization capabilities in binary classification, they struggle with fine-grained ordinal classifications. In contrast, classifiers trained on summary embeddings generated by LLMs demonstrate competitive, and in some cases superior, performance on the classification tasks, particularly when compared to models using traditional text embeddings. Our findings demonstrate the strengths of LLMs in mental health prediction, and suggest promising directions for better utilization of their zero-shot capabilities and context-aware summarization techniques.
- Abstract(参考訳): ソーシャルメディアにおける抑うつ言語検出の精度と解釈は、精神状態の早期介入に有用であり、臨床実践とより広範な公衆衛生活動の両方に重要な意味を持つ。
本稿では,大規模言語モデル(LLM)と従来の機械学習分類器の性能について,2次うつ病分類,うつ病重症度分類,うつ病,PTSD,不安の3つの分類課題について検討する。
本研究では,ゼロショットLLMと従来のテキスト埋め込みとLLM生成要約埋め込みの両方で訓練された教師付き分類器を比較した。
実験の結果, ゼロショットLLMは二進分類において強い一般化能力を示すが, 微粒な順序分類に苦慮していることがわかった。
対照的に、LLMによって生成された要約埋め込みに基づいて訓練された分類器は競争力を示し、場合によっては従来のテキスト埋め込みを用いたモデルと比較して、分類タスクの性能が優れている。
本研究は, 精神保健予測におけるLCMの強みを実証し, ゼロショット能力と文脈認識の要約技術をより有効活用するための有望な方向性を示唆する。
関連論文リスト
- Generating Medically-Informed Explanations for Depression Detection using LLMs [1.325953054381901]
ソーシャルメディアデータからうつ病を早期に検出することは、タイムリーな介入の貴重な機会となる。
本稿では,LLM-MTD(Large Language Model for Multi-Task Depression Detection)を提案する。
論文 参考訳(メタデータ) (2025-03-18T19:23:22Z) - Cognitive-Mental-LLM: Evaluating Reasoning in Large Language Models for Mental Health Prediction via Online Text [0.0]
本研究では,Reddit から得られた複数のメンタルヘルスデータセットの分類精度を向上させるため,構造化推論手法-Chain-of-Thought (CoT), Self-Consistency (SC-CoT), Tree-of-Thought (ToT) の評価を行った。
我々は,Zero-shot CoTやFew-shot CoTといった推論駆動型プロンプト戦略を,Ba balanced Accuracy,F1 score,Sensitivity/Specificityといった重要なパフォーマンス指標を用いて分析する。
以上の結果から,特に複雑な場合において,推論手法により直接予測よりも分類性能が向上することが示唆された。
論文 参考訳(メタデータ) (2025-03-13T06:42:37Z) - Explainable Depression Detection in Clinical Interviews with Personalized Retrieval-Augmented Generation [32.163466666512996]
うつ病は広範な精神疾患であり、臨床面接は評価のための金の基準である。
現在のシステムは主にブラックボックスニューラルネットワークを使用し、解釈性に欠ける。
本稿では,説明可能な抑うつ検出のための検索拡張フレームワークREDを提案する。
論文 参考訳(メタデータ) (2025-03-03T08:59:34Z) - Estimating Commonsense Plausibility through Semantic Shifts [66.06254418551737]
セマンティックシフトを測定することでコモンセンスの妥当性を定量化する新しい識別フレームワークであるComPaSSを提案する。
2種類の細粒度コモンセンス可視性評価タスクの評価は,ComPaSSが一貫してベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-19T06:31:06Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings [16.136832979324467]
本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
論文 参考訳(メタデータ) (2020-03-11T23:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。