論文の概要: Data Quality Matters: Suicide Intention Detection on Social Media Posts
Using a RoBERTa-CNN Model
- arxiv url: http://arxiv.org/abs/2402.02262v1
- Date: Sat, 3 Feb 2024 20:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:02:39.512015
- Title: Data Quality Matters: Suicide Intention Detection on Social Media Posts
Using a RoBERTa-CNN Model
- Title(参考訳): データ品質の問題:RoBERTa-CNNモデルを用いたソーシャルメディア投稿における自殺意図検出
- Authors: Emily Lin, Jian Sun, Hsingyu Chen, and Mohammad H. Mahoor
- Abstract要約: 本稿では,最先端のRoBERTa-CNNモデルを用いた自殺検出手法を提案する。
RoBERTa-CNNは標準偏差0.0009で98%の平均精度を達成する。
また、平均AUC値は97.5%を超え、STDは0.0013である。
- 参考スコア(独自算出の注目度): 39.143550443239064
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Suicide remains a global health concern for the field of health, which
urgently needs innovative approaches for early detection and intervention. In
this paper, we focus on identifying suicidal intentions in SuicideWatch Reddit
posts and present a novel approach to suicide detection using the cutting-edge
RoBERTa-CNN model, a variant of RoBERTa (Robustly optimized BERT approach).
RoBERTa is used for various Natural Language Processing (NLP) tasks, including
text classification and sentiment analysis. The effectiveness of the RoBERTa
lies in its ability to capture textual information and form semantic
relationships within texts. By adding the Convolution Neural Network (CNN)
layer to the original model, the RoBERTa enhances its ability to capture
important patterns from heavy datasets. To evaluate the RoBERTa-CNN, we
experimented on the Suicide and Depression Detection dataset and obtained solid
results. For example, RoBERTa-CNN achieves 98% mean accuracy with the standard
deviation (STD) of 0.0009. It also reaches over 97.5% mean AUC value with an
STD of 0.0013. In the meanwhile, RoBERTa-CNN outperforms competitive methods,
demonstrating the robustness and ability to capture nuanced linguistic patterns
for suicidal intentions. Therefore, RoBERTa-CNN can detect suicide intention on
text data very well.
- Abstract(参考訳): 自殺は、早期発見と介入のための革新的なアプローチを緊急に必要としている健康分野における世界的な健康上の懸念である。
本稿では,自殺監視Reddit投稿における自殺意図の同定に焦点をあて,RoBERTa(Robustly Optimization BERT)の変種である最先端RoBERTa-CNNモデルを用いた自殺検知の新しいアプローチを提案する。
RoBERTaは、テキスト分類や感情分析など、さまざまな自然言語処理(NLP)タスクに使用されている。
RoBERTaの有効性は、テキスト情報を取得し、テキスト内の意味関係を形成する能力にある。
オリジナルのモデルに畳み込みニューラルネットワーク(CNN)レイヤを追加することで、RoBERTaは重いデータセットから重要なパターンをキャプチャする能力を高める。
RoBERTa-CNNを評価するために,自殺・抑うつ検出データセットの実験を行い,その結果を得た。
例えば、RoBERTa-CNNは標準偏差0.0009で98%の平均精度を達成する。
97.5%以上のauc値に達し、std 0.0013である。
一方、RoBERTa-CNNは、自殺意図のためのニュアンス言語パターンを捕捉する堅牢性と能力を実証し、競争的手法より優れている。
そのため、RoBERTa-CNNはテキストデータ上で自殺意図を極めてよく検出できる。
関連論文リスト
- Leveraging Large Language Models for Suicide Detection on Social Media with Limited Labels [3.1399304968349186]
本稿では,テキストベースのソーシャルメディア投稿における自殺的内容を自動的に検出するLarge Language Models (LLMs) について検討する。
我々は,Qwen2-72B-インストラクションの促進とLlama3-8B,Llama3.1-8B,Gemma2-9Bなどの微調整モデルを用いたアンサンブルアプローチを開発した。
実験の結果,アンサンブルモデルでは個々のモデルと比較して5%の精度で検出精度が向上した。
論文 参考訳(メタデータ) (2024-10-06T14:45:01Z) - Suicide Phenotyping from Clinical Notes in Safety-Net Psychiatric Hospital Using Multi-Label Classification with Pre-Trained Language Models [10.384299115679369]
事前訓練された言語モデルは、非構造的な臨床物語から自殺を識別する約束を提供する。
2つの微調整戦略を用いて4つのBERTモデルの性能評価を行った。
その結果, モデル最適化, ドメイン関連データによる事前学習, 単一マルチラベル分類戦略により, 自殺表現のモデル性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-27T16:13:38Z) - Dumpling GNN: Hybrid GNN Enables Better ADC Payload Activity Prediction Based on Chemical Structure [53.76752789814785]
DumplingGNNは、化学構造に基づいてADCペイロードのアクティビティを予測するために特別に設計された、ハイブリッドなグラフニューラルネットワークアーキテクチャである。
DNAトポイソメラーゼIインヒビターに着目した包括的ADCペイロードデータセットで評価を行った。
特別なADCペイロードデータセットに対して、例外的な精度(91.48%)、感度95.08%)、特異性(97.54%)を示す。
論文 参考訳(メタデータ) (2024-09-23T17:11:04Z) - SOS-1K: A Fine-grained Suicide Risk Classification Dataset for Chinese Social Media Analysis [22.709733830774788]
本研究では,自殺リスクの詳細な分類を目的とした,中国のソーシャルメディアデータセットを提案する。
事前訓練した7つのモデルについて, 自殺リスクが高い, 自殺リスクが少ない, 自殺リスクの細かい分類が0~10の2つのタスクで評価された。
ディープラーニングモデルは高い自殺リスクと低い自殺リスクを区別する上で優れた性能を示し、最良のモデルはF1スコア88.39%である。
論文 参考訳(メタデータ) (2024-04-19T06:58:51Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Uncertainty Quantification over Graph with Conformalized Graph Neural
Networks [52.20904874696597]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに基づく強力な機械学習予測モデルである。
GNNには厳密な不確実性見積が欠如しており、エラーのコストが重要な設定での信頼性の高いデプロイメントが制限されている。
本稿では,共形予測(CP)をグラフベースモデルに拡張した共形GNN(CF-GNN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T21:38:23Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - An ensemble deep learning technique for detecting suicidal ideation from
posts in social media platforms [0.0]
本稿ではLSTM-Attention-CNN複合モデルを提案する。
提案されたモデルは90.3%の精度、F1スコア92.6%の精度を示した。
論文 参考訳(メタデータ) (2021-12-17T15:34:03Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。