論文の概要: Systematic Review: Text Processing Algorithms in Machine Learning and Deep Learning for Mental Health Detection on Social Media
- arxiv url: http://arxiv.org/abs/2410.16204v1
- Date: Mon, 21 Oct 2024 17:05:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:20:42.075137
- Title: Systematic Review: Text Processing Algorithms in Machine Learning and Deep Learning for Mental Health Detection on Social Media
- Title(参考訳): システムレビュー:ソーシャルメディアにおけるメンタルヘルス検出のための機械学習とディープラーニングにおけるテキスト処理アルゴリズム
- Authors: Yuchen Cao, Jianglai Dai, Zhongyan Wang, Yeyubei Zhang, Xiaorui Shen, Yunchong Liu, Yexin Tian,
- Abstract要約: 本稿では,ソーシャルメディア上での抑うつ検出のための機械学習モデルの評価を行う。
モデルの信頼性と一般化可能性に影響を及ぼす重要なバイアスが見つかった。
否定のような言語的なニュアンスに明示的に対応した研究はわずか23%で、正確な感情分析に欠かせないものだった。
- 参考スコア(独自算出の注目度): 0.037693031068634524
- License:
- Abstract: The global rise in depression necessitates innovative detection methods for early intervention. Social media provides a unique opportunity to identify depression through user-generated posts. This systematic review evaluates machine learning (ML) models for depression detection on social media, focusing on biases and methodological challenges throughout the ML lifecycle. A search of PubMed, IEEE Xplore, and Google Scholar identified 47 relevant studies published after 2010. The Prediction model Risk Of Bias ASsessment Tool (PROBAST) was utilized to assess methodological quality and risk of bias. Significant biases impacting model reliability and generalizability were found. There is a predominant reliance on Twitter (63.8%) and English-language content (over 90%), with most studies focusing on users from the United States and Europe. Non-probability sampling methods (approximately 80%) limit representativeness. Only 23% of studies explicitly addressed linguistic nuances like negations, crucial for accurate sentiment analysis. Inconsistent hyperparameter tuning was observed, with only 27.7% properly tuning models. About 17% did not adequately partition data into training, validation, and test sets, risking overfitting. While 74.5% used appropriate evaluation metrics for imbalanced data, others relied on accuracy without addressing class imbalance, potentially skewing results. Reporting transparency varied, often lacking critical methodological details. These findings highlight the need to diversify data sources, standardize preprocessing protocols, ensure consistent model development practices, address class imbalance, and enhance reporting transparency. By overcoming these challenges, future research can develop more robust and generalizable ML models for depression detection on social media, contributing to improved mental health outcomes globally.
- Abstract(参考訳): うつ病の世界的な増加は、早期介入のための革新的な検出方法を必要とする。
ソーシャルメディアは、ユーザーが作成した投稿を通じてうつ病を識別するユニークな機会を提供する。
この体系的なレビューでは、ソーシャルメディア上での抑うつ検出のための機械学習(ML)モデルを評価し、MLライフサイクル全体のバイアスと方法論的課題に焦点を当てる。
PubMed、IEEE Xplore、Google Scholarの検索では、2010年以降に出版された47の関連研究が特定された。
The Prediction Model Risk of Bias Assessment Tool (PROBAST) was using the methodological quality and risk of bias。
モデルの信頼性と一般化可能性に影響を及ぼす重要なバイアスが見つかった。
Twitter(63.8%)と英語コンテンツ(90%以上)に大きく依存している。
非確率サンプリング法(約80%)は、代表性を制限する。
否定のような言語的なニュアンスに明示的に対応した研究はわずか23%で、正確な感情分析に欠かせないものだった。
一貫性のないハイパーパラメータチューニングが観測され、適切なチューニングモデルは27.7%に過ぎなかった。
約17%は、データをトレーニング、検証、テストセットに適切に分割しておらず、過度に適合するリスクがあった。
74.5%は不均衡なデータに対する適切な評価基準を使用していたが、他のものは不均衡に対処せずに正確さに頼っていた。
透明性の報告は様々であり、しばしば重要な方法論の詳細を欠いていた。
これらの調査結果は、データソースの多様化、前処理プロトコルの標準化、一貫性のあるモデル開発プラクティスの確立、クラス不均衡への対処、レポート透明性の向上の必要性を強調している。
これらの課題を克服することで、将来の研究はソーシャルメディア上での抑うつ検出のためのより堅牢で一般化可能なMLモデルを開発することができ、世界中のメンタルヘルスの成果に寄与する。
関連論文リスト
- Detecting anxiety and depression in dialogues: a multi-label and explainable approach [5.635300481123079]
不安と抑うつは世界中で最も一般的なメンタルヘルスの問題であり、人口の非無視的な部分に影響を及ぼす。
本研究では、不安と抑うつの多ラベル分類のための全く新しいシステムを提案する。
論文 参考訳(メタデータ) (2024-12-23T15:29:46Z) - A Systematic Review of Machine Learning Approaches for Detecting Deceptive Activities on Social Media: Methods, Challenges, and Biases [0.037693031068634524]
本稿では、機械学習(ML)モデルとディープラーニング(DL)モデルを用いて、ソーシャルメディア上の偽ニュース、スパム、偽アカウントを検出する研究を体系的に評価する。
論文 参考訳(メタデータ) (2024-10-26T23:55:50Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Unveiling and Mitigating Bias in Mental Health Analysis with Large Language Models [13.991577818021495]
GPT-4 は大規模言語モデル (LLM) における性能と公平性において最高の総合バランスであることを示す。
フェアネスを意識した私たちのプロンプトは、メンタルヘルスの予測を効果的にバイアスし、この分野におけるフェアネス分析の大きな可能性を浮き彫りにします。
論文 参考訳(メタデータ) (2024-06-17T19:05:32Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Assessing ML Classification Algorithms and NLP Techniques for Depression Detection: An Experimental Case Study [0.6524460254566905]
うつ病は世界中で何百万人もの人々に影響を与えており、最も一般的な精神疾患の1つとなっている。
近年の研究では、機械学習(ML)と自然言語処理(NLP)のツールや技術がうつ病の診断に広く用いられていることが証明されている。
しかし, 外傷後ストレス障害 (PTSD) などの他の症状が存在するうつ病検出アプローチの評価には, 依然としていくつかの課題がある。
論文 参考訳(メタデータ) (2024-04-03T19:45:40Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Bias Reducing Multitask Learning on Mental Health Prediction [18.32551434711739]
メンタルヘルスの検出や予測のための機械学習モデルの開発では、研究が増加している。
本研究では,マルチタスク学習に基づくバイアス緩和手法を不安予測モデルに適用し,公平性分析を行うことを目的とする。
分析の結果、我々の不安予測ベースモデルでは、年齢、収入、民族性、そして参加者が米国で生まれたかどうかに偏りが生じていた。
論文 参考訳(メタデータ) (2022-08-07T02:28:32Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。