論文の概要: Machine Learning Approaches for Mental Illness Detection on Social Media: A Systematic Review of Biases and Methodological Challenges
- arxiv url: http://arxiv.org/abs/2410.16204v3
- Date: Sat, 15 Feb 2025 07:27:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:06:10.860777
- Title: Machine Learning Approaches for Mental Illness Detection on Social Media: A Systematic Review of Biases and Methodological Challenges
- Title(参考訳): ソーシャルメディアにおけるメンタル障害検出のための機械学習アプローチ : バイアスと方法論的課題の体系的レビュー
- Authors: Yuchen Cao, Jianglai Dai, Zhongyan Wang, Yeyubei Zhang, Xiaorui Shen, Yunchong Liu, Yexin Tian,
- Abstract要約: 本稿では,ソーシャルメディアデータを用いた精神疾患検出のための機械学習モデルについて検討する。
機械学習ライフサイクル全体で発生するバイアスと方法論上の課題を強調します。
これらの課題を克服することで、将来の研究はソーシャルメディア上での抑うつ検出のためのより堅牢で一般化可能なMLモデルを開発することができる。
- 参考スコア(独自算出の注目度): 0.037693031068634524
- License:
- Abstract: The global increase in mental illness requires innovative detection methods for early intervention. Social media provides a valuable platform to identify mental illness through user-generated content. This systematic review examines machine learning (ML) models for detecting mental illness, with a particular focus on depression, using social media data. It highlights biases and methodological challenges encountered throughout the ML lifecycle. A search of PubMed, IEEE Xplore, and Google Scholar identified 47 relevant studies published after 2010. The Prediction model Risk Of Bias ASsessment Tool (PROBAST) was utilized to assess methodological quality and risk of bias. The review reveals significant biases affecting model reliability and generalizability. A predominant reliance on Twitter (63.8%) and English-language content (over 90%) limits diversity, with most studies focused on users from the United States and Europe. Non-probability sampling (80%) limits representativeness. Only 23% explicitly addressed linguistic nuances like negations, crucial for accurate sentiment analysis. Inconsistent hyperparameter tuning (27.7%) and inadequate data partitioning (17%) risk overfitting. While 74.5% used appropriate evaluation metrics for imbalanced data, others relied on accuracy without addressing class imbalance, potentially skewing results. Reporting transparency varied, often lacking critical methodological details. These findings highlight the need to diversify data sources, standardize preprocessing, ensure consistent model development, address class imbalance, and enhance reporting transparency. By overcoming these challenges, future research can develop more robust and generalizable ML models for depression detection on social media, contributing to improved mental health outcomes globally.
- Abstract(参考訳): 精神疾患の世界的な増加には、早期介入のための革新的な検出方法が必要である。
ソーシャルメディアは、ユーザー生成コンテンツを通じて精神疾患を識別するための貴重なプラットフォームを提供する。
本稿では,精神疾患を検出するための機械学習(ML)モデルについて,特に抑うつに焦点をあて,ソーシャルメディアデータを用いて検討する。
MLライフサイクル全体で発生するバイアスと方法論上の課題を強調します。
PubMed、IEEE Xplore、Google Scholarの検索では、2010年以降に出版された47の関連研究が特定された。
The Prediction Model Risk of Bias Assessment Tool (PROBAST) was using the methodological quality and risk of bias。
レビューでは、モデルの信頼性と一般化可能性に重大なバイアスが明らかになっている。
Twitter(63.8%)と英語コンテンツ(90%以上)への依存は多様性を制限しており、ほとんどの研究は米国とヨーロッパからのユーザーに焦点を当てている。
非確率サンプリング(80%)は代表性を制限する。
否定のような言語的なニュアンスについて、正確な感情分析に欠かせないことはわずか23%だった。
一貫性のないハイパーパラメータチューニング(27.7%)と不十分なデータパーティショニング(17%)のリスクオーバーフィッティング。
74.5%は不均衡なデータに対する適切な評価基準を使用していたが、他のものは不均衡に対処せずに正確さに頼っていた。
透明性の報告は様々であり、しばしば重要な方法論の詳細を欠いていた。
これらの発見は、データソースの多様化、事前処理の標準化、一貫性のあるモデル開発を保証すること、クラスの不均衡に対処すること、レポートの透明性を高めることの必要性を強調している。
これらの課題を克服することで、将来の研究はソーシャルメディア上での抑うつ検出のためのより堅牢で一般化可能なMLモデルを開発することができ、世界中のメンタルヘルスの成果に寄与する。
関連論文リスト
- Detecting anxiety and depression in dialogues: a multi-label and explainable approach [5.635300481123079]
不安と抑うつは世界中で最も一般的なメンタルヘルスの問題であり、人口の非無視的な部分に影響を及ぼす。
本研究では、不安と抑うつの多ラベル分類のための全く新しいシステムを提案する。
論文 参考訳(メタデータ) (2024-12-23T15:29:46Z) - A Systematic Review of Machine Learning Approaches for Detecting Deceptive Activities on Social Media: Methods, Challenges, and Biases [0.037693031068634524]
本稿では、機械学習(ML)モデルとディープラーニング(DL)モデルを用いて、ソーシャルメディア上の偽ニュース、スパム、偽アカウントを検出する研究を体系的に評価する。
論文 参考訳(メタデータ) (2024-10-26T23:55:50Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Unveiling and Mitigating Bias in Mental Health Analysis with Large Language Models [13.991577818021495]
GPT-4 は大規模言語モデル (LLM) における性能と公平性において最高の総合バランスであることを示す。
フェアネスを意識した私たちのプロンプトは、メンタルヘルスの予測を効果的にバイアスし、この分野におけるフェアネス分析の大きな可能性を浮き彫りにします。
論文 参考訳(メタデータ) (2024-06-17T19:05:32Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Assessing ML Classification Algorithms and NLP Techniques for Depression Detection: An Experimental Case Study [0.6524460254566905]
うつ病は世界中で何百万人もの人々に影響を与えており、最も一般的な精神疾患の1つとなっている。
近年の研究では、機械学習(ML)と自然言語処理(NLP)のツールや技術がうつ病の診断に広く用いられていることが証明されている。
しかし, 外傷後ストレス障害 (PTSD) などの他の症状が存在するうつ病検出アプローチの評価には, 依然としていくつかの課題がある。
論文 参考訳(メタデータ) (2024-04-03T19:45:40Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Bias Reducing Multitask Learning on Mental Health Prediction [18.32551434711739]
メンタルヘルスの検出や予測のための機械学習モデルの開発では、研究が増加している。
本研究では,マルチタスク学習に基づくバイアス緩和手法を不安予測モデルに適用し,公平性分析を行うことを目的とする。
分析の結果、我々の不安予測ベースモデルでは、年齢、収入、民族性、そして参加者が米国で生まれたかどうかに偏りが生じていた。
論文 参考訳(メタデータ) (2022-08-07T02:28:32Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。