論文の概要: A Comparative Analysis of Transformer and LSTM Models for Detecting Suicidal Ideation on Reddit
- arxiv url: http://arxiv.org/abs/2411.15404v1
- Date: Sat, 23 Nov 2024 01:17:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:22:43.997325
- Title: A Comparative Analysis of Transformer and LSTM Models for Detecting Suicidal Ideation on Reddit
- Title(参考訳): Redditにおける適切なアイデア検出のためのトランスフォーマーモデルとLSTMモデルの比較分析
- Authors: Khalid Hasan, Jamil Saquer,
- Abstract要約: 多くの人がRedditのようなソーシャルメディアプラットフォームで自殺的な考えを表明しています。
本稿では, 深層学習変換器モデルBERT, RoBERTa, DistilBERT, ALBERT, ELECTRAの有効性を検討した。
RoBERTaは93.22%、F1スコア93.14%の最も効果的なモデルとして登場した。
- 参考スコア(独自算出の注目度): 0.18416014644193066
- License:
- Abstract: Suicide is a critical global health problem involving more than 700,000 deaths yearly, particularly among young adults. Many people express their suicidal thoughts on social media platforms such as Reddit. This paper evaluates the effectiveness of the deep learning transformer-based models BERT, RoBERTa, DistilBERT, ALBERT, and ELECTRA and various Long Short-Term Memory (LSTM) based models in detecting suicidal ideation from user posts on Reddit. Toward this objective, we curated an extensive dataset from diverse subreddits and conducted linguistic, topic modeling, and statistical analyses to ensure data quality. Our results indicate that each model could reach high accuracy and F1 scores, but among them, RoBERTa emerged as the most effective model with an accuracy of 93.22% and F1 score of 93.14%. An LSTM model that uses attention and BERT embeddings performed as the second best, with an accuracy of 92.65% and an F1 score of 92.69%. Our findings show that transformer-based models have the potential to improve suicide ideation detection, thereby providing a path to develop robust mental health monitoring tools from social media. This research, therefore, underlines the undeniable prospect of advanced techniques in Natural Language Processing (NLP) while improving suicide prevention efforts.
- Abstract(参考訳): 自殺は、特に若年層において、年間70万人以上の死者を負う重要な世界的な健康問題である。
多くの人がRedditのようなソーシャルメディアプラットフォームで自殺的な考えを表明しています。
本稿では, ディープラーニングトランスフォーマーモデルBERT, RoBERTa, DistilBERT, ALBERT, ELECTRAおよびLong Short-Term Memory(LSTM)モデルを用いて, Reddit上のユーザ投稿から自殺的思考を検出する。
この目的のために,多様なサブレディットから収集した広範囲なデータセットを収集し,言語,トピックモデリング,統計解析を行い,データ品質を保証した。
以上の結果から,各モデルは高い精度とF1スコアに達する可能性が示唆されたが,RoBERTaは93.22%,F1スコアは93.14%と最も効果的なモデルとして出現した。
注意とBERT埋め込みを用いたLSTMモデルは、92.65%の精度と92.69%のF1スコアで2番目に良い結果を得た。
以上の結果から,トランスフォーマーを用いたモデルでは,自殺の発案検出を改善する可能性があり,ソーシャルメディアから堅牢なメンタルヘルスモニタリングツールを開発するための道が開ける可能性が示唆された。
そこで本研究では,NLP(Natural Language Processing, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 自然言語処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 音声処理, 情報処理
関連論文リスト
- Leveraging Large Language Models for Suicide Detection on Social Media with Limited Labels [3.1399304968349186]
本稿では,テキストベースのソーシャルメディア投稿における自殺的内容を自動的に検出するLarge Language Models (LLMs) について検討する。
我々は,Qwen2-72B-インストラクションの促進とLlama3-8B,Llama3.1-8B,Gemma2-9Bなどの微調整モデルを用いたアンサンブルアプローチを開発した。
実験の結果,アンサンブルモデルでは個々のモデルと比較して5%の精度で検出精度が向上した。
論文 参考訳(メタデータ) (2024-10-06T14:45:01Z) - Suicide Phenotyping from Clinical Notes in Safety-Net Psychiatric Hospital Using Multi-Label Classification with Pre-Trained Language Models [10.384299115679369]
事前訓練された言語モデルは、非構造的な臨床物語から自殺を識別する約束を提供する。
2つの微調整戦略を用いて4つのBERTモデルの性能評価を行った。
その結果, モデル最適化, ドメイン関連データによる事前学習, 単一マルチラベル分類戦略により, 自殺表現のモデル性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-27T16:13:38Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - SOS-1K: A Fine-grained Suicide Risk Classification Dataset for Chinese Social Media Analysis [22.709733830774788]
本研究では,自殺リスクの詳細な分類を目的とした,中国のソーシャルメディアデータセットを提案する。
事前訓練した7つのモデルについて, 自殺リスクが高い, 自殺リスクが少ない, 自殺リスクの細かい分類が0~10の2つのタスクで評価された。
ディープラーニングモデルは高い自殺リスクと低い自殺リスクを区別する上で優れた性能を示し、最良のモデルはF1スコア88.39%である。
論文 参考訳(メタデータ) (2024-04-19T06:58:51Z) - Non-Invasive Suicide Risk Prediction Through Speech Analysis [74.8396086718266]
自動自殺リスク評価のための非侵襲的音声ベースアプローチを提案する。
我々は、wav2vec、解釈可能な音声・音響特徴、深層学習に基づくスペクトル表現の3つの特徴セットを抽出する。
我々の最も効果的な音声モデルは、6.6.2,%$のバランスの取れた精度を達成する。
論文 参考訳(メタデータ) (2024-04-18T12:33:57Z) - Data Quality Matters: Suicide Intention Detection on Social Media Posts
Using a RoBERTa-CNN Model [39.143550443239064]
本稿では,最先端のRoBERTa-CNNモデルを用いた自殺検出手法を提案する。
RoBERTa-CNNは標準偏差0.0009で98%の平均精度を達成する。
また、平均AUC値は97.5%を超え、STDは0.0013である。
論文 参考訳(メタデータ) (2024-02-03T20:58:09Z) - A Meta-GNN approach to personalized seizure detection and classification [53.906130332172324]
本稿では,特定の患者に限られた発作サンプルから迅速に適応できるパーソナライズされた発作検出・分類フレームワークを提案する。
トレーニング患者の集合からグローバルモデルを学ぶメタGNNベースの分類器を訓練する。
本手法は, 未確認患者20回に限って, 精度82.7%, F1スコア82.08%を達成し, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-11-01T14:12:58Z) - An ensemble deep learning technique for detecting suicidal ideation from
posts in social media platforms [0.0]
本稿ではLSTM-Attention-CNN複合モデルを提案する。
提案されたモデルは90.3%の精度、F1スコア92.6%の精度を示した。
論文 参考訳(メタデータ) (2021-12-17T15:34:03Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。