論文の概要: Detecting Potentially Harmful and Protective Suicide-related Content on
Twitter: A Machine Learning Approach
- arxiv url: http://arxiv.org/abs/2112.04796v2
- Date: Sat, 11 Dec 2021 10:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 11:42:02.846806
- Title: Detecting Potentially Harmful and Protective Suicide-related Content on
Twitter: A Machine Learning Approach
- Title(参考訳): twitter上で有害かつ保護的な自殺関連コンテンツの検出 - マシンラーニングによるアプローチ
- Authors: Hannah Metzler, Hubert Baginski, Thomas Niederkrotenthaler, David
Garcia
- Abstract要約: 我々は大量のTwitterデータを自動ラベル付けするために機械学習手法を適用した。
2つのディープラーニングモデルが2つの分類タスクで最高のパフォーマンスを達成した。
本研究は, 各種ソーシャルメディアコンテンツが自殺率, ヘルプ・サーキング行動に与える影響について, 今後の大規模調査を可能にするものである。
- 参考スコア(独自算出の注目度): 0.1582078748632554
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Research shows that exposure to suicide-related news media content is
associated with suicide rates, with some content characteristics likely having
harmful and others potentially protective effects. Although good evidence
exists for a few selected characteristics, systematic large scale
investigations are missing in general, and in particular for social media data.
We apply machine learning methods to automatically label large quantities of
Twitter data. We developed a novel annotation scheme that classifies
suicide-related tweets into different message types and problem- vs.
solution-focused perspectives. We then trained a benchmark of machine learning
models including a majority classifier, an approach based on word frequency
(TF-IDF with a linear SVM) and two state-of-the-art deep learning models (BERT,
XLNet). The two deep learning models achieved the best performance in two
classification tasks: First, we classified six main content categories,
including personal stories about either suicidal ideation and attempts or
coping, calls for action intending to spread either problem awareness or
prevention-related information, reportings of suicide cases, and other
suicide-related and off-topic tweets. The deep learning models reach accuracy
scores above 73% on average across the six categories, and F1-scores in between
69% and 85% for all but the suicidal ideation and attempts category (55%).
Second, in separating postings referring to actual suicide from off-topic
tweets, they correctly labelled around 88% of tweets, with BERT achieving
F1-scores of 93% and 74% for the two categories. These classification
performances are comparable to the state-of-the-art on similar tasks. By making
data labeling more efficient, this work enables future large-scale
investigations on harmful and protective effects of various kinds of social
media content on suicide rates and on help-seeking behavior.
- Abstract(参考訳): 研究によると、自殺に関連するメディアコンテンツへの露出は自殺率と関連しており、一部のコンテンツの特徴は有害なものや、潜在的に保護効果がある可能性がある。
優れた証拠はいくつかあるが、組織的な大規模調査は一般的に、特にソーシャルメディアデータには欠落している。
大量のtwitterデータを自動ラベル付けするために機械学習手法を適用した。
我々は,自殺関連ツイートを異なるメッセージタイプと問題に分類する新しいアノテーションスキームを開発した。
次に、多数分類器、単語周波数に基づくアプローチ(線形SVM付きTF-IDF)および最先端ディープラーニングモデル(BERT、XLNet)を含む機械学習モデルのベンチマークを訓練した。
この2つのディープラーニングモデルは,2つの分類タスクで最高のパフォーマンスを達成した。まず,自殺意識や予防関連情報の拡散を目的とした行動要求,自殺事例の報告,その他の自殺関連およびオフトピックなツイートを含む,6つの主要なコンテンツカテゴリを分類した。
ディープラーニングモデルは6つのカテゴリの平均で73%以上の精度スコアに達し、f1-scoresは自殺イデオレーションと試行(55%)を除くすべてのカテゴリで69%から85%である。
第2に、オフトピーのツイートから実際の自殺を指す投稿を分離する際、BERTはF1スコアを93%と74%で達成し、ツイートの88%を正しくラベル付けした。
これらの分類性能は、同様のタスクの最先端に匹敵する。
データラベリングをより効率的にすることで、ソーシャルメディアの各種コンテンツが自殺率やヘルプシーキング行動に与える影響について、将来の大規模調査が可能になる。
関連論文リスト
- Leveraging Large Language Models for Suicide Detection on Social Media with Limited Labels [3.1399304968349186]
本稿では,テキストベースのソーシャルメディア投稿における自殺的内容を自動的に検出するLarge Language Models (LLMs) について検討する。
我々は,Qwen2-72B-インストラクションの促進とLlama3-8B,Llama3.1-8B,Gemma2-9Bなどの微調整モデルを用いたアンサンブルアプローチを開発した。
実験の結果,アンサンブルモデルでは個々のモデルと比較して5%の精度で検出精度が向上した。
論文 参考訳(メタデータ) (2024-10-06T14:45:01Z) - ThangDLU at #SMM4H 2024: Encoder-decoder models for classifying text data on social disorders in children and adolescents [49.00494558898933]
本稿では,#SMM4H (Social Media Mining for Health) 2024 Workshopのタスク3とタスク5への参加について述べる。
タスク3は、屋外環境が社会不安の症状に与える影響を議論するツイートを中心にした多クラス分類タスクである。
タスク5は、子供の医学的障害を報告しているツイートに焦点を当てたバイナリ分類タスクを含む。
BART-baseやT5-smallのような事前訓練されたエンコーダデコーダモデルからの転送学習を適用し、与えられたツイートの集合のラベルを同定した。
論文 参考訳(メタデータ) (2024-04-30T17:06:20Z) - SOS-1K: A Fine-grained Suicide Risk Classification Dataset for Chinese Social Media Analysis [22.709733830774788]
本研究では,自殺リスクの詳細な分類を目的とした,中国のソーシャルメディアデータセットを提案する。
事前訓練した7つのモデルについて, 自殺リスクが高い, 自殺リスクが少ない, 自殺リスクの細かい分類が0~10の2つのタスクで評価された。
ディープラーニングモデルは高い自殺リスクと低い自殺リスクを区別する上で優れた性能を示し、最良のモデルはF1スコア88.39%である。
論文 参考訳(メタデータ) (2024-04-19T06:58:51Z) - Non-Invasive Suicide Risk Prediction Through Speech Analysis [74.8396086718266]
自動自殺リスク評価のための非侵襲的音声ベースアプローチを提案する。
我々は、wav2vec、解釈可能な音声・音響特徴、深層学習に基づくスペクトル表現の3つの特徴セットを抽出する。
我々の最も効果的な音声モデルは、6.6.2,%$のバランスの取れた精度を達成する。
論文 参考訳(メタデータ) (2024-04-18T12:33:57Z) - Navigating the OverKill in Large Language Models [84.62340510027042]
モデルがどのように処理し,クエリの安全性を判断するかを検討することで,過剰スキルの要因について検討する。
以上の結果から,モデル内にショートカットが存在することが明らかとなり,"キル"のような有害な単語が過剰に認識され,安全性が強調され,過度なスキルが増すことが示唆された。
我々は、この現象を緩和するために、トレーニングフリーでモデルに依存しないセルフコントラストデコーディング(Self-Contrastive Decoding、CD)を導入する。
論文 参考訳(メタデータ) (2024-01-31T07:26:47Z) - CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - Detecting Suicidality in Arabic Tweets Using Machine Learning and Deep
Learning Techniques [0.32885740436059047]
本研究は,Twitterからアラビアの自殺検知データセットを開発した。
これは、Twitterからアラビアの自殺検知データセットを開発した最初の研究である。
論文 参考訳(メタデータ) (2023-09-01T04:30:59Z) - Overview of Abusive and Threatening Language Detection in Urdu at FIRE
2021 [50.591267188664666]
我々は、ウルドゥー語に対する虐待と脅しの2つの共通タスクを提示する。
本研究では, (i) 乱用と非乱用というラベル付きツイートを含む手動注釈付きデータセットと, (ii) 脅威と非脅威の2つを提示する。
両方のサブタスクに対して、m-Bertベースのトランスモデルは最高の性能を示した。
論文 参考訳(メタデータ) (2022-07-14T07:38:13Z) - A Quantitative and Qualitative Analysis of Suicide Ideation Detection
using Deep Learning [5.192118773220605]
本稿では,競合するソーシャルメディアによる自殺検知・予測モデルを再現した。
複数のデータセットと異なる最先端ディープラーニングモデルを用いて自殺思考の検出の可能性を検討した。
論文 参考訳(メタデータ) (2022-06-17T10:23:37Z) - An ensemble deep learning technique for detecting suicidal ideation from
posts in social media platforms [0.0]
本稿ではLSTM-Attention-CNN複合モデルを提案する。
提案されたモデルは90.3%の精度、F1スコア92.6%の精度を示した。
論文 参考訳(メタデータ) (2021-12-17T15:34:03Z) - Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal
Misinformation [83.2079454464572]
本稿では,DARPAセマンティック・フォレスティクス(SemaFor)プログラムにおける画像テキスト不整合検出へのアプローチについて述べる。
Twitter-COMMsは大規模マルチモーダルデータセットで、884万のツイートが気候変動、新型コロナウイルス、軍用車両のトピックに関連する。
我々は、最先端のCLIPモデルに基づいて、自動生成されたランダムとハードのネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガ
論文 参考訳(メタデータ) (2021-12-16T03:37:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。