論文の概要: An Automated Tool to Detect Suicidal Susceptibility from Social Media
Posts
- arxiv url: http://arxiv.org/abs/2310.06056v1
- Date: Mon, 9 Oct 2023 18:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 02:28:08.217042
- Title: An Automated Tool to Detect Suicidal Susceptibility from Social Media
Posts
- Title(参考訳): ソーシャルメディア投稿の自殺感受性を自動検出するツール
- Authors: Yasin Dus, Georgiy Nefedov
- Abstract要約: この研究は、誰かが自分自身を傷つけることを考えているかどうかを判断する自動化ツールの開発に焦点を当てている。
ソーシャルメディア投稿のデータセットを収集し、それらを処理し、モデルをトレーニングし、微調整するために使用しました。
モデルでは93%の精度でF1スコアが0.93。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: According to the World Health Organization (WHO), approximately 1.4 million
individuals died by suicide in 2022. This means that one person dies by suicide
every 20 seconds. Globally, suicide ranks as the 10th leading cause of death,
while it ranks second for young people aged 15-29. In the year 2022, it was
estimated that about 10.5 million suicide attempts occurred. The WHO suggests
that alongside each completed suicide, there are many individuals who make
attempts. Today, social media is a place where people share their feelings,
such as happiness, sadness, anger, and love. This helps us understand how they
are thinking or what they might do. This study takes advantage of this
opportunity and focuses on developing an automated tool to find if someone may
be thinking about harming themselves. It is developed based on the
Suicidal-Electra model. We collected datasets of social media posts, processed
them, and used them to train and fine-tune the model. Upon evaluating the
refined model with a testing dataset, we consistently observed outstanding
results. The model demonstrated an impressive accuracy rate of 93% and a
commendable F1 score of 0.93. Additionally, we developed an API enabling
seamless integration with third-party platforms, enhancing its potential for
implementation to address the growing concern of rising suicide rates.
- Abstract(参考訳): 世界保健機関(WHO)によると、2022年に約14万人が自殺した。
これは20秒ごとに1人が自殺することを意味する。
自殺は世界第10位の死因であり、15~29歳の若者では第2位である。
2022年、約1050万件の自殺未遂が発生したと推定されている。
WHOは、自殺が完了した度に、多くの個人が試みていることを示唆している。
今日では、ソーシャルメディアは、幸福、悲しみ、怒り、愛といった感情を共有する場所です。
これは、彼らがどう考えているのか、何をしているのかを理解するのに役立つ。
この研究は、この機会を生かし、誰かが自分自身を傷つけようと考えているかどうかを判断する自動化ツールの開発に焦点を当てる。
Suicidal-Electraモデルに基づいて開発された。
ソーシャルメディア投稿のデータセットを収集して処理し、モデルのトレーニングと微調整に使用しました。
テストデータセットで洗練されたモデルを評価すると、一貫して見事な結果が得られた。
このモデルは93%の印象的な精度を示し、表彰可能なf1スコアは0.93であった。
さらに、サードパーティプラットフォームとのシームレスな統合を可能にするAPIを開発し、自殺率が上昇する懸念に対処するための実装の可能性を高めました。
関連論文リスト
- A Comparative Analysis of Transformer and LSTM Models for Detecting Suicidal Ideation on Reddit [0.18416014644193066]
多くの人がRedditのようなソーシャルメディアプラットフォームで自殺的な考えを表明しています。
本稿では, 深層学習変換器モデルBERT, RoBERTa, DistilBERT, ALBERT, ELECTRAの有効性を検討した。
RoBERTaは93.22%、F1スコア93.14%の最も効果的なモデルとして登場した。
論文 参考訳(メタデータ) (2024-11-23T01:17:43Z) - MentalArena: Self-play Training of Language Models for Diagnosis and Treatment of Mental Health Disorders [59.515827458631975]
メンタルヘルス障害は世界で最も深刻な病気の1つである。
プライバシーに関する懸念は、パーソナライズされた治療データのアクセシビリティを制限する。
MentalArenaは、言語モデルをトレーニングするためのセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T13:06:40Z) - Non-Invasive Suicide Risk Prediction Through Speech Analysis [74.8396086718266]
自動自殺リスク評価のための非侵襲的音声ベースアプローチを提案する。
我々は、wav2vec、解釈可能な音声・音響特徴、深層学習に基づくスペクトル表現の3つの特徴セットを抽出する。
我々の最も効果的な音声モデルは、6.6.2,%$のバランスの取れた精度を達成する。
論文 参考訳(メタデータ) (2024-04-18T12:33:57Z) - How Social Media Big Data Can Improve Suicide Prevention [0.0]
自殺に関連するオンライン行動が実際にどのように関わっているのか、その証拠はいまだに残っていない。
3ヶ月のスーパーコンピュータ検索の結果、570,156人の若者がソーシャルメディア上で自殺関連情報を消費した。
8人全員が、最大15人の自殺関連オンライングループに激怒した。
ソーシャルメディア利用者をターゲットにした自殺防止戦略は広範囲に実施されなければならない。
論文 参考訳(メタデータ) (2024-01-15T14:35:39Z) - Conceptualizing Suicidal Behavior: Utilizing Explanations of Predicted
Outcomes to Analyze Longitudinal Social Media Data [2.76101452577748]
新型コロナウイルスのパンデミックは世界中でメンタルヘルスの危機をエスカレートしている。
自殺は、恥、虐待、放棄、うつ病のような精神状態などの社会的要因によって引き起こされる。
これらの状況が発展するにつれて、自殺的思考の兆候がソーシャルメディアの相互作用に現れる可能性がある。
論文 参考訳(メタデータ) (2023-12-13T17:15:12Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Mental Illness Classification on Social Media Texts using Deep Learning
and Transfer Learning [55.653944436488786]
世界保健機関(WHO)によると、約4億5000万人が影響を受ける。
うつ病、不安症、双極性障害、ADHD、PTSDなどの精神疾患。
本研究では、Redditプラットフォーム上の非構造化ユーザデータを分析し、うつ病、不安、双極性障害、ADHD、PTSDの5つの一般的な精神疾患を分類する。
論文 参考訳(メタデータ) (2022-07-03T11:33:52Z) - Am I No Good? Towards Detecting Perceived Burdensomeness and Thwarted
Belongingness from Suicide Notes [51.378225388679425]
本稿では,自殺ノートから知覚的バーデンサムネス(PB)とThwarted Belongingness(TB)を検出する新しい課題に対処するエンドツーエンドマルチタスクシステムを提案する。
また、ベンチマークCEASE-v2.0データセットに基づいて、手動で翻訳したコード混合自殺メモコーパス、CoMCEASE-v2.0を導入する。
自殺ノートの時間方向と感情情報を利用して全体のパフォーマンスを向上する。
論文 参考訳(メタデータ) (2022-05-20T06:31:08Z) - An ensemble deep learning technique for detecting suicidal ideation from
posts in social media platforms [0.0]
本稿ではLSTM-Attention-CNN複合モデルを提案する。
提案されたモデルは90.3%の精度、F1スコア92.6%の精度を示した。
論文 参考訳(メタデータ) (2021-12-17T15:34:03Z) - Building and Using Personal Knowledge Graph to Improve Suicidal Ideation
Detection on Social Media [4.769234388745917]
ソーシャルメディア上での自殺思考検出のための深層ニューラルネットワークを用いた,自殺指向の知識グラフの構築と統合を行う。
ソーシャルメディアに基づく自殺思考検出は93%以上の精度を達成できることを示す。
これらのカテゴリでは、投稿されたテキスト、ストレスレベル、ストレス持続時間、投稿された画像、反響的な思考が自殺的思考の検出に寄与する。
論文 参考訳(メタデータ) (2020-12-16T18:09:32Z) - Suicidal Ideation and Mental Disorder Detection with Attentive Relation
Networks [43.2802002858859]
本稿では,語彙に基づく感情スコアと潜在トピックを用いたテキスト表現を強化する。
本研究は,自殺思考と精神障害を関連するリスク指標を用いて検出する関係ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-16T11:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。