論文の概要: Mental Multi-class Classification on Social Media: Benchmarking Transformer Architectures against LSTM Models
- arxiv url: http://arxiv.org/abs/2509.16542v1
- Date: Sat, 20 Sep 2025 05:41:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.846642
- Title: Mental Multi-class Classification on Social Media: Benchmarking Transformer Architectures against LSTM Models
- Title(参考訳): ソーシャルメディアにおけるメンタルマルチクラス分類:LSTMモデルに対するトランスフォーマーアーキテクチャのベンチマーク
- Authors: Khalid Hasan, Jamil Saquer, Yifan Zhang,
- Abstract要約: 本稿では,精神保健ポストを分類するために,LSTM(Long Short-Term Memory)モデルと最先端トランスフォーマーの比較を行った。
まず、厳密なフィルタリングと統計的探索分析を用いて、6つのメンタルヘルス状態とコントロールグループにまたがるReddit投稿の大規模なデータセットをキュレートし、アノテーションの品質を保証する。
実験結果から, トランスフォーマーモデルは, 全クラスで91-99%のF1スコアとアキュラシーを達成した。
- 参考スコア(独自算出の注目度): 7.464241214592479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Millions of people openly share mental health struggles on social media, providing rich data for early detection of conditions such as depression, bipolar disorder, etc. However, most prior Natural Language Processing (NLP) research has focused on single-disorder identification, leaving a gap in understanding the efficacy of advanced NLP techniques for distinguishing among multiple mental health conditions. In this work, we present a large-scale comparative study of state-of-the-art transformer versus Long Short-Term Memory (LSTM)-based models to classify mental health posts into exclusive categories of mental health conditions. We first curate a large dataset of Reddit posts spanning six mental health conditions and a control group, using rigorous filtering and statistical exploratory analysis to ensure annotation quality. We then evaluate five transformer architectures (BERT, RoBERTa, DistilBERT, ALBERT, and ELECTRA) against several LSTM variants (with or without attention, using contextual or static embeddings) under identical conditions. Experimental results show that transformer models consistently outperform the alternatives, with RoBERTa achieving 91-99% F1-scores and accuracies across all classes. Notably, attention-augmented LSTMs with BERT embeddings approach transformer performance (up to 97% F1-score) while training 2-3.5 times faster, whereas LSTMs using static embeddings fail to learn useful signals. These findings represent the first comprehensive benchmark for multi-class mental health detection, offering practical guidance on model selection and highlighting an accuracy-efficiency trade-off for real-world deployment of mental health NLP systems.
- Abstract(参考訳): 何百万人もの人々が、ソーシャルメディア上でメンタルヘルスの苦難を公然と共有し、うつ病や双極性障害などの早期発見のための豊富なデータを提供している。
しかしながら、NLP(Natural Language Processing)の研究は、複数のメンタルヘルス状態の区別に先立って、高度なNLP技術の有効性を理解するためのギャップを残している。
本研究は,精神保健ポストをメンタルヘルス状態の排他的カテゴリに分類するための,最先端のトランスフォーマー対長短短期記憶モデル(LSTM)を用いた大規模比較研究である。
まず、厳密なフィルタリングと統計的探索分析を用いて、6つのメンタルヘルス状態とコントロールグループにまたがるReddit投稿の大規模なデータセットをキュレートし、アノテーションの品質を保証する。
次に,複数のLSTM変種に対して,同一条件下での5つのトランスフォーマーアーキテクチャ (BERT, RoBERTa, DistilBERT, ALBERT, ELECTRA) を評価する。
実験結果から, トランスフォーマーモデルは, 全クラスで91-99%のF1スコアとアキュラシーを達成した。
特に、BERT埋め込みによる注意増強LSTMはトランスフォーマー性能(最大97% F1スコア)にアプローチし、トレーニングは2~3.5倍速く、静的埋め込みを用いたLSTMは有用な信号の学習に失敗する。
これらの結果は、モデル選択に関する実践的なガイダンスを提供し、メンタルヘルスNLPシステムの現実的な展開における精度と効率のトレードオフを強調した、マルチクラスのメンタルヘルス検出のための最初の総合的なベンチマークである。
関連論文リスト
- Beyond Architectures: Evaluating the Role of Contextual Embeddings in Detecting Bipolar Disorder on Social Media [0.18416014644193066]
双極性障害は、微妙な早期症状と社会的便秘によりしばしば診断される慢性精神疾患である。
本稿では,ユーザ生成ソーシャルメディアテキストに基づくバイポーラ障害の兆候を認識するための高度自然言語処理(NLP)モデルについて検討する。
論文 参考訳(メタデータ) (2025-07-17T05:14:19Z) - Advancing Mental Disorder Detection: A Comparative Evaluation of Transformer and LSTM Architectures on Social Media [0.16385815610837165]
本研究では,Long Short-Term Memory (LSTM) に基づくアプローチに対して,最先端のトランスフォーマーモデルの総合評価を行う。
Redditのメンタルヘルス障害分類のためのテキスト埋め込み技術を用いて,大規模な注釈付きデータセットを構築した。
実験により,従来のディープラーニングモデルよりもトランスフォーマーモデルの方が優れた性能を示した。
論文 参考訳(メタデータ) (2025-07-17T04:58:31Z) - Detecting PTSD in Clinical Interviews: A Comparative Analysis of NLP Methods and Large Language Models [6.916082619621498]
外傷後ストレス障害 (PTSD) は, 臨床現場ではまだ診断されていない。
本研究では,臨床面接書からPTSDを検出するための自然言語処理手法について検討した。
論文 参考訳(メタデータ) (2025-04-01T22:06:28Z) - Cognitive-Mental-LLM: Evaluating Reasoning in Large Language Models for Mental Health Prediction via Online Text [0.0]
本研究では,Reddit から得られた複数のメンタルヘルスデータセットの分類精度を向上させるため,構造化推論手法-Chain-of-Thought (CoT), Self-Consistency (SC-CoT), Tree-of-Thought (ToT) の評価を行った。
我々は,Zero-shot CoTやFew-shot CoTといった推論駆動型プロンプト戦略を,Ba balanced Accuracy,F1 score,Sensitivity/Specificityといった重要なパフォーマンス指標を用いて分析する。
以上の結果から,特に複雑な場合において,推論手法により直接予測よりも分類性能が向上することが示唆された。
論文 参考訳(メタデータ) (2025-03-13T06:42:37Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - WellDunn: On the Robustness and Explainability of Language Models and Large Language Models in Identifying Wellness Dimensions [46.60244609728416]
言語モデル (LMs) は, 予後不良のリスクが高まれば, 臨床実習におけるモデルの実用性に対するリトマステストにはならない可能性がある, メンタルヘルスの分野では, 言語モデル (LMs) が提案されている。
ウェルネス次元(WD)の同定におけるLMの堅牢性と説明性に着目した評価設計を提案する。
LM/LLMの4つの驚くべき結果が明らかになった。
論文 参考訳(メタデータ) (2024-06-17T19:50:40Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z) - Performance of Dual-Augmented Lagrangian Method and Common Spatial
Patterns applied in classification of Motor-Imagery BCI [68.8204255655161]
運動画像に基づく脳-コンピュータインタフェース(MI-BCI)は、神経リハビリテーションのための画期的な技術になる可能性がある。
使用する脳波信号のノイズの性質のため、信頼性の高いBCIシステムは特徴の最適化と抽出のために特別な手順を必要とする。
論文 参考訳(メタデータ) (2020-10-13T20:50:13Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z) - Towards a Competitive End-to-End Speech Recognition for CHiME-6 Dinner
Party Transcription [73.66530509749305]
本稿では,難しい場合であっても,ハイブリッドベースラインに近い性能を示すエンドツーエンドアプローチについて論じる。
CTC-Attention と RNN-Transducer のアプローチと RNN と Transformer のアーキテクチャを比較し,解析する。
RNN-Transducerをベースとしたベストエンド・ツー・エンドモデルでは、ビームサーチの改善とともに、LF-MMI TDNN-F CHiME-6 Challengeのベースラインよりも品質が3.8%向上した。
論文 参考訳(メタデータ) (2020-04-22T19:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。