論文の概要: A Comparative Analysis of Transformer and LSTM Models for Detecting Suicidal Ideation on Reddit
- arxiv url: http://arxiv.org/abs/2411.15404v1
- Date: Sat, 23 Nov 2024 01:17:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:22:43.997325
- Title: A Comparative Analysis of Transformer and LSTM Models for Detecting Suicidal Ideation on Reddit
- Title(参考訳): Redditにおける適切なアイデア検出のためのトランスフォーマーモデルとLSTMモデルの比較分析
- Authors: Khalid Hasan, Jamil Saquer,
- Abstract要約: 多くの人がRedditのようなソーシャルメディアプラットフォームで自殺的な考えを表明しています。
本稿では, 深層学習変換器モデルBERT, RoBERTa, DistilBERT, ALBERT, ELECTRAの有効性を検討した。
RoBERTaは93.22%、F1スコア93.14%の最も効果的なモデルとして登場した。
- 参考スコア(独自算出の注目度): 0.18416014644193066
- License:
- Abstract: Suicide is a critical global health problem involving more than 700,000 deaths yearly, particularly among young adults. Many people express their suicidal thoughts on social media platforms such as Reddit. This paper evaluates the effectiveness of the deep learning transformer-based models BERT, RoBERTa, DistilBERT, ALBERT, and ELECTRA and various Long Short-Term Memory (LSTM) based models in detecting suicidal ideation from user posts on Reddit. Toward this objective, we curated an extensive dataset from diverse subreddits and conducted linguistic, topic modeling, and statistical analyses to ensure data quality. Our results indicate that each model could reach high accuracy and F1 scores, but among them, RoBERTa emerged as the most effective model with an accuracy of 93.22% and F1 score of 93.14%. An LSTM model that uses attention and BERT embeddings performed as the second best, with an accuracy of 92.65% and an F1 score of 92.69%. Our findings show that transformer-based models have the potential to improve suicide ideation detection, thereby providing a path to develop robust mental health monitoring tools from social media. This research, therefore, underlines the undeniable prospect of advanced techniques in Natural Language Processing (NLP) while improving suicide prevention efforts.
- Abstract(参考訳): 自殺は、特に若年層において、年間70万人以上の死者を負う重要な世界的な健康問題である。
多くの人がRedditのようなソーシャルメディアプラットフォームで自殺的な考えを表明しています。
本稿では, ディープラーニングトランスフォーマーモデルBERT, RoBERTa, DistilBERT, ALBERT, ELECTRAおよびLong Short-Term Memory(LSTM)モデルを用いて, Reddit上のユーザ投稿から自殺的思考を検出する。
この目的のために,多様なサブレディットから収集した広範囲なデータセットを収集し,言語,トピックモデリング,統計解析を行い,データ品質を保証した。
以上の結果から,各モデルは高い精度とF1スコアに達する可能性が示唆されたが,RoBERTaは93.22%,F1スコアは93.14%と最も効果的なモデルとして出現した。
注意とBERT埋め込みを用いたLSTMモデルは、92.65%の精度と92.69%のF1スコアで2番目に良い結果を得た。
以上の結果から,トランスフォーマーを用いたモデルでは,自殺の発案検出を改善する可能性があり,ソーシャルメディアから堅牢なメンタルヘルスモニタリングツールを開発するための道が開ける可能性が示唆された。
そこで本研究では,NLP(Natural Language Processing, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 情報処理
関連論文リスト
- Su-RoBERTa: A Semi-supervised Approach to Predicting Suicide Risk through Social Media using Base Language Models [24.260983864615557]
本稿では,Redditデータを用いた自殺リスク評価について検討した。
我々は、より小さな言語モデル、すなわち5億未満のパラメータの使用も効果的であることを示した。
本研究では,自殺リスク予測タスクにおける細調整RoBERTaであるSu-RoBERTaを提案する。
論文 参考訳(メタデータ) (2024-12-02T10:31:12Z) - CRTRE: Causal Rule Generation with Target Trial Emulation Framework [47.2836994469923]
ターゲットトライアルエミュレーションフレームワーク(CRTRE)を用いた因果ルール生成という新しい手法を提案する。
CRTREは、アソシエーションルールの因果効果を推定するためにランダム化トライアル設計原則を適用している。
次に、病気発症予測などの下流アプリケーションにそのような関連ルールを組み込む。
論文 参考訳(メタデータ) (2024-11-10T02:40:06Z) - Leveraging Large Language Models for Suicide Detection on Social Media with Limited Labels [3.1399304968349186]
本稿では,テキストベースのソーシャルメディア投稿における自殺的内容を自動的に検出するLarge Language Models (LLMs) について検討する。
我々は,Qwen2-72B-インストラクションの促進とLlama3-8B,Llama3.1-8B,Gemma2-9Bなどの微調整モデルを用いたアンサンブルアプローチを開発した。
実験の結果,アンサンブルモデルでは個々のモデルと比較して5%の精度で検出精度が向上した。
論文 参考訳(メタデータ) (2024-10-06T14:45:01Z) - Suicide Phenotyping from Clinical Notes in Safety-Net Psychiatric Hospital Using Multi-Label Classification with Pre-Trained Language Models [10.384299115679369]
事前訓練された言語モデルは、非構造的な臨床物語から自殺を識別する約束を提供する。
2つの微調整戦略を用いて4つのBERTモデルの性能評価を行った。
その結果, モデル最適化, ドメイン関連データによる事前学習, 単一マルチラベル分類戦略により, 自殺表現のモデル性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-27T16:13:38Z) - Machine Learning for ALSFRS-R Score Prediction: Making Sense of the Sensor Data [44.99833362998488]
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)は、急速に進行する神経変性疾患である。
iDPP@CLEF 2024チャレンジを先導した今回の調査は,アプリから得られるセンサデータを活用することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-10T19:17:23Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - SOS-1K: A Fine-grained Suicide Risk Classification Dataset for Chinese Social Media Analysis [22.709733830774788]
本研究では,自殺リスクの詳細な分類を目的とした,中国のソーシャルメディアデータセットを提案する。
事前訓練した7つのモデルについて, 自殺リスクが高い, 自殺リスクが少ない, 自殺リスクの細かい分類が0~10の2つのタスクで評価された。
ディープラーニングモデルは高い自殺リスクと低い自殺リスクを区別する上で優れた性能を示し、最良のモデルはF1スコア88.39%である。
論文 参考訳(メタデータ) (2024-04-19T06:58:51Z) - An ensemble deep learning technique for detecting suicidal ideation from
posts in social media platforms [0.0]
本稿ではLSTM-Attention-CNN複合モデルを提案する。
提案されたモデルは90.3%の精度、F1スコア92.6%の精度を示した。
論文 参考訳(メタデータ) (2021-12-17T15:34:03Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。