論文の概要: Evaluating Transformer Models for Suicide Risk Detection on Social Media
- arxiv url: http://arxiv.org/abs/2410.08375v1
- Date: Thu, 10 Oct 2024 21:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 03:46:24.200690
- Title: Evaluating Transformer Models for Suicide Risk Detection on Social Media
- Title(参考訳): ソーシャルメディア上での自殺リスク検出のためのトランスフォーマーモデルの評価
- Authors: Jakub Pokrywka, Jeremi I. Kaczmarek, Edward J. Gorzelańczyk,
- Abstract要約: 本稿では,ソーシャルメディア投稿における自殺リスクの同定に最先端の自然言語処理ソリューションを活用することを提案する。
これらのモデルと最小限のチューニングが組み合わさって,ソーシャルメディア上での自殺リスクの自動検出に有効な解決策となる可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.5461938536945723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The detection of suicide risk in social media is a critical task with potential life-saving implications. This paper presents a study on leveraging state-of-the-art natural language processing solutions for identifying suicide risk in social media posts as a submission for the "IEEE BigData 2024 Cup: Detection of Suicide Risk on Social Media" conducted by the kubapok team. We experimented with the following configurations of transformer-based models: fine-tuned DeBERTa, GPT-4o with CoT and few-shot prompting, and fine-tuned GPT-4o. The task setup was to classify social media posts into four categories: indicator, ideation, behavior, and attempt. Our findings demonstrate that the fine-tuned GPT-4o model outperforms two other configurations, achieving high accuracy in identifying suicide risk. Notably, our model achieved second place in the competition. By demonstrating that straightforward, general-purpose models can achieve state-of-the-art results, we propose that these models, combined with minimal tuning, may have the potential to be effective solutions for automated suicide risk detection on social media.
- Abstract(参考訳): ソーシャルメディアにおける自殺リスクの検出は、命を救うための重要な課題である。
本稿では,クバポクチームによる「IEEE BigData 2024 Cup: Detection of Suicide Risk on Social Media」の投稿として,ソーシャルメディア投稿における自殺リスクの特定に最先端の自然言語処理ソリューションを活用することを提案する。
DeBERTa, CoT を用いた GPT-4o, 数発のプロンプト, 微調整 GPT-4o といったトランスフォーマーモデルについて実験を行った。
課題は、ソーシャルメディア投稿を指標、考え、行動、試行の4つのカテゴリに分類することであった。
以上の結果から,細調整GPT-4oモデルは他の2つの構成より優れ,自殺リスクの同定に高い精度が得られた。
特に、私たちのモデルは競技会で2位を獲得しました。
これらのモデルと最小限のチューニングを組み合わせることで,ソーシャルメディア上での自殺リスクの自動検出に有効な解決策が期待できる可能性が示唆された。
関連論文リスト
- A Comparative Analysis of Transformer and LSTM Models for Detecting Suicidal Ideation on Reddit [0.18416014644193066]
多くの人がRedditのようなソーシャルメディアプラットフォームで自殺的な考えを表明しています。
本稿では, 深層学習変換器モデルBERT, RoBERTa, DistilBERT, ALBERT, ELECTRAの有効性を検討した。
RoBERTaは93.22%、F1スコア93.14%の最も効果的なモデルとして登場した。
論文 参考訳(メタデータ) (2024-11-23T01:17:43Z) - Leveraging Large Language Models for Suicide Detection on Social Media with Limited Labels [3.1399304968349186]
本稿では,テキストベースのソーシャルメディア投稿における自殺的内容を自動的に検出するLarge Language Models (LLMs) について検討する。
我々は,Qwen2-72B-インストラクションの促進とLlama3-8B,Llama3.1-8B,Gemma2-9Bなどの微調整モデルを用いたアンサンブルアプローチを開発した。
実験の結果,アンサンブルモデルでは個々のモデルと比較して5%の精度で検出精度が向上した。
論文 参考訳(メタデータ) (2024-10-06T14:45:01Z) - SOS-1K: A Fine-grained Suicide Risk Classification Dataset for Chinese Social Media Analysis [22.709733830774788]
本研究では,自殺リスクの詳細な分類を目的とした,中国のソーシャルメディアデータセットを提案する。
事前訓練した7つのモデルについて, 自殺リスクが高い, 自殺リスクが少ない, 自殺リスクの細かい分類が0~10の2つのタスクで評価された。
ディープラーニングモデルは高い自殺リスクと低い自殺リスクを区別する上で優れた性能を示し、最良のモデルはF1スコア88.39%である。
論文 参考訳(メタデータ) (2024-04-19T06:58:51Z) - Non-Invasive Suicide Risk Prediction Through Speech Analysis [74.8396086718266]
自動自殺リスク評価のための非侵襲的音声ベースアプローチを提案する。
我々は、wav2vec、解釈可能な音声・音響特徴、深層学習に基づくスペクトル表現の3つの特徴セットを抽出する。
我々の最も効果的な音声モデルは、6.6.2,%$のバランスの取れた精度を達成する。
論文 参考訳(メタデータ) (2024-04-18T12:33:57Z) - Navigating the OverKill in Large Language Models [84.62340510027042]
モデルがどのように処理し,クエリの安全性を判断するかを検討することで,過剰スキルの要因について検討する。
以上の結果から,モデル内にショートカットが存在することが明らかとなり,"キル"のような有害な単語が過剰に認識され,安全性が強調され,過度なスキルが増すことが示唆された。
我々は、この現象を緩和するために、トレーニングフリーでモデルに依存しないセルフコントラストデコーディング(Self-Contrastive Decoding、CD)を導入する。
論文 参考訳(メタデータ) (2024-01-31T07:26:47Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - DiffSTG: Probabilistic Spatio-Temporal Graph Forecasting with Denoising
Diffusion Models [53.67562579184457]
本稿では,不確実性や複雑な依存関係のモデル化が困難であることから,確率的STG予測に焦点をあてる。
本稿では,一般的な拡散モデルをSTGに一般化する最初の試みとして,DiffSTGと呼ばれる新しい非自己回帰フレームワークを提案する。
提案手法は,本質的時間学習能力STNNと拡散モデルの不確実性測定を組み合わせたものである。
論文 参考訳(メタデータ) (2023-01-31T13:42:36Z) - A Quantitative and Qualitative Analysis of Suicide Ideation Detection
using Deep Learning [5.192118773220605]
本稿では,競合するソーシャルメディアによる自殺検知・予測モデルを再現した。
複数のデータセットと異なる最先端ディープラーニングモデルを用いて自殺思考の検出の可能性を検討した。
論文 参考訳(メタデータ) (2022-06-17T10:23:37Z) - Am I No Good? Towards Detecting Perceived Burdensomeness and Thwarted
Belongingness from Suicide Notes [51.378225388679425]
本稿では,自殺ノートから知覚的バーデンサムネス(PB)とThwarted Belongingness(TB)を検出する新しい課題に対処するエンドツーエンドマルチタスクシステムを提案する。
また、ベンチマークCEASE-v2.0データセットに基づいて、手動で翻訳したコード混合自殺メモコーパス、CoMCEASE-v2.0を導入する。
自殺ノートの時間方向と感情情報を利用して全体のパフォーマンスを向上する。
論文 参考訳(メタデータ) (2022-05-20T06:31:08Z) - An ensemble deep learning technique for detecting suicidal ideation from
posts in social media platforms [0.0]
本稿ではLSTM-Attention-CNN複合モデルを提案する。
提案されたモデルは90.3%の精度、F1スコア92.6%の精度を示した。
論文 参考訳(メタデータ) (2021-12-17T15:34:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。