論文の概要: An Automated Tool to Detect Suicidal Susceptibility from Social Media
Posts
- arxiv url: http://arxiv.org/abs/2310.06056v2
- Date: Fri, 9 Feb 2024 21:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 22:06:01.349944
- Title: An Automated Tool to Detect Suicidal Susceptibility from Social Media
Posts
- Title(参考訳): ソーシャルメディア投稿の自殺感受性を自動検出するツール
- Authors: Yasin Dus, Georgiy Nefedov
- Abstract要約: 本研究は、ソーシャルメディアからの情報を用いて、誰かが自傷行為を考えているかどうかを判断する自動モデルを開発する。
ソーシャルメディア投稿のデータセットを収集し、それらを処理し、モデルをトレーニングし、修正しました。
このモデルは93%の精度で、F1スコアは0.93である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The World Health Organization (WHO) estimated that approximately 1.4 million
individuals worldwide died by suicide in 2022. This figure indicates that one
person died by suicide every 20 s during the year. Globally, suicide is the
tenth-leading cause of death, while it is the second-leading cause of death
among young people aged 15329 years. In 2022, it was estimated that
approximately 10.5 million suicide attempts would occur. The WHO suggests that
along with each completed suicide attempt, many individuals attempt suicide.
Today, social media is a place in which people share their feelings. Thus,
social media can help us understand the thoughts and possible actions of
individuals. This study leverages this advantage and focuses on developing an
automated model to use information from social media to determine whether
someone is contemplating self-harm. This model is based on the Suicidal-ELECTRA
model. We collected datasets of social media posts, processed them, and used
them to train and fiune-tune our model. Evaluation of the refined model with a
testing dataset consistently yielded outstanding results. The model had an
impressive accuracy rate of 93% and commendable F1 score of 0.93. Additionally,
we developed an application programming interface that seamlessly integrated
our tool with third-party platforms, enhancing its implementation potential to
address the concern of rising suicide rates.
- Abstract(参考訳): 世界保健機関(WHO)は2022年に世界中で約14万人が自殺したと推計している。
この数字は、年間20秒に1人が自殺したことを示している。
自殺は世界で10番目に多い死因であり、15329歳の若者では2番目に多い死因である。
2022年、約1億5500万人の自殺未遂が起こると推定された。
WHOは、それぞれの自殺未遂と共に、多くの個人が自殺を試みることを示唆している。
今日では、ソーシャルメディアは人々が自分の気持ちを共有する場所です。
したがって、ソーシャルメディアは個人の思考や行動を理解するのに役立ちます。
本研究は,この利点を生かし,ソーシャルメディアからの情報を用いて自己修復を考えているかどうかを判断する自動モデルの開発に焦点をあてる。
このモデルはSidcidal-ELECTRAモデルに基づいている。
ソーシャルメディア投稿のデータセットを収集し、それらを処理し、モデルをトレーニングし、修正しました。
テストデータセットによる洗練されたモデルの評価は、一貫して優れた結果を得た。
このモデルは93%の精度で、F1スコアは0.93である。
さらに我々は,このツールをサードパーティプラットフォームとシームレスに統合するアプリケーションプログラミングインタフェースを開発し,自殺率上昇の懸念に対処する実装の可能性を高めた。
関連論文リスト
- A Comparative Analysis of Transformer and LSTM Models for Detecting Suicidal Ideation on Reddit [0.18416014644193066]
多くの人がRedditのようなソーシャルメディアプラットフォームで自殺的な考えを表明しています。
本稿では, 深層学習変換器モデルBERT, RoBERTa, DistilBERT, ALBERT, ELECTRAの有効性を検討した。
RoBERTaは93.22%、F1スコア93.14%の最も効果的なモデルとして登場した。
論文 参考訳(メタデータ) (2024-11-23T01:17:43Z) - MentalArena: Self-play Training of Language Models for Diagnosis and Treatment of Mental Health Disorders [59.515827458631975]
メンタルヘルス障害は世界で最も深刻な病気の1つである。
プライバシーに関する懸念は、パーソナライズされた治療データのアクセシビリティを制限する。
MentalArenaは、言語モデルをトレーニングするためのセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T13:06:40Z) - Non-Invasive Suicide Risk Prediction Through Speech Analysis [74.8396086718266]
自動自殺リスク評価のための非侵襲的音声ベースアプローチを提案する。
我々は、wav2vec、解釈可能な音声・音響特徴、深層学習に基づくスペクトル表現の3つの特徴セットを抽出する。
我々の最も効果的な音声モデルは、6.6.2,%$のバランスの取れた精度を達成する。
論文 参考訳(メタデータ) (2024-04-18T12:33:57Z) - How Social Media Big Data Can Improve Suicide Prevention [0.0]
自殺に関連するオンライン行動が実際にどのように関わっているのか、その証拠はいまだに残っていない。
3ヶ月のスーパーコンピュータ検索の結果、570,156人の若者がソーシャルメディア上で自殺関連情報を消費した。
8人全員が、最大15人の自殺関連オンライングループに激怒した。
ソーシャルメディア利用者をターゲットにした自殺防止戦略は広範囲に実施されなければならない。
論文 参考訳(メタデータ) (2024-01-15T14:35:39Z) - Conceptualizing Suicidal Behavior: Utilizing Explanations of Predicted
Outcomes to Analyze Longitudinal Social Media Data [2.76101452577748]
新型コロナウイルスのパンデミックは世界中でメンタルヘルスの危機をエスカレートしている。
自殺は、恥、虐待、放棄、うつ病のような精神状態などの社会的要因によって引き起こされる。
これらの状況が発展するにつれて、自殺的思考の兆候がソーシャルメディアの相互作用に現れる可能性がある。
論文 参考訳(メタデータ) (2023-12-13T17:15:12Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Mental Illness Classification on Social Media Texts using Deep Learning
and Transfer Learning [55.653944436488786]
世界保健機関(WHO)によると、約4億5000万人が影響を受ける。
うつ病、不安症、双極性障害、ADHD、PTSDなどの精神疾患。
本研究では、Redditプラットフォーム上の非構造化ユーザデータを分析し、うつ病、不安、双極性障害、ADHD、PTSDの5つの一般的な精神疾患を分類する。
論文 参考訳(メタデータ) (2022-07-03T11:33:52Z) - Am I No Good? Towards Detecting Perceived Burdensomeness and Thwarted
Belongingness from Suicide Notes [51.378225388679425]
本稿では,自殺ノートから知覚的バーデンサムネス(PB)とThwarted Belongingness(TB)を検出する新しい課題に対処するエンドツーエンドマルチタスクシステムを提案する。
また、ベンチマークCEASE-v2.0データセットに基づいて、手動で翻訳したコード混合自殺メモコーパス、CoMCEASE-v2.0を導入する。
自殺ノートの時間方向と感情情報を利用して全体のパフォーマンスを向上する。
論文 参考訳(メタデータ) (2022-05-20T06:31:08Z) - An ensemble deep learning technique for detecting suicidal ideation from
posts in social media platforms [0.0]
本稿ではLSTM-Attention-CNN複合モデルを提案する。
提案されたモデルは90.3%の精度、F1スコア92.6%の精度を示した。
論文 参考訳(メタデータ) (2021-12-17T15:34:03Z) - Building and Using Personal Knowledge Graph to Improve Suicidal Ideation
Detection on Social Media [4.769234388745917]
ソーシャルメディア上での自殺思考検出のための深層ニューラルネットワークを用いた,自殺指向の知識グラフの構築と統合を行う。
ソーシャルメディアに基づく自殺思考検出は93%以上の精度を達成できることを示す。
これらのカテゴリでは、投稿されたテキスト、ストレスレベル、ストレス持続時間、投稿された画像、反響的な思考が自殺的思考の検出に寄与する。
論文 参考訳(メタデータ) (2020-12-16T18:09:32Z) - Suicidal Ideation and Mental Disorder Detection with Attentive Relation
Networks [43.2802002858859]
本稿では,語彙に基づく感情スコアと潜在トピックを用いたテキスト表現を強化する。
本研究は,自殺思考と精神障害を関連するリスク指標を用いて検出する関係ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-16T11:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。