論文の概要: Domain Adversarial Training for Mitigating Gender Bias in Speech-based Mental Health Detection
- arxiv url: http://arxiv.org/abs/2505.03359v1
- Date: Tue, 06 May 2025 09:29:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.306389
- Title: Domain Adversarial Training for Mitigating Gender Bias in Speech-based Mental Health Detection
- Title(参考訳): 音声によるメンタルヘルス検出におけるジェンダーバイアスの軽減のためのドメインアドバイザリアルトレーニング
- Authors: June-Woo Kim, Haram Yoon, Wonkyo Oh, Dawoon Jung, Sung-Hoon Yoon, Dae-Jin Kim, Dong-Ho Lee, Sang-Yeol Lee, Chan-Mo Yang,
- Abstract要約: 本稿では,音声による抑うつとPTSD検出において,性差を明確に考慮するドメイン逆行訓練手法を提案する。
その結果,F1スコアはベースラインに比べて最大13.29ポイント向上することがわかった。
- 参考スコア(独自算出の注目度): 9.82676920954754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Speech-based AI models are emerging as powerful tools for detecting depression and the presence of Post-traumatic stress disorder (PTSD), offering a non-invasive and cost-effective way to assess mental health. However, these models often struggle with gender bias, which can lead to unfair and inaccurate predictions. In this study, our study addresses this issue by introducing a domain adversarial training approach that explicitly considers gender differences in speech-based depression and PTSD detection. Specifically, we treat different genders as distinct domains and integrate this information into a pretrained speech foundation model. We then validate its effectiveness on the E-DAIC dataset to assess its impact on performance. Experimental results show that our method notably improves detection performance, increasing the F1-score by up to 13.29 percentage points compared to the baseline. This highlights the importance of addressing demographic disparities in AI-driven mental health assessment.
- Abstract(参考訳): 音声ベースのAIモデルは、うつ病やPTSD(Post-traumatic stress disorder)の存在を検出する強力なツールとして登場し、非侵襲的で費用対効果の低いメンタルヘルスの評価方法を提供している。
しかし、これらのモデルは男女差に苦しむことが多く、不公平で不正確な予測につながる可能性がある。
本研究では,音声による抑うつとPTSD検出において,性差を明確に考慮するドメイン逆行訓練手法を導入することにより,この問題に対処する。
具体的には、異なる性別を異なるドメインとして扱い、この情報を事前訓練された音声基礎モデルに統合する。
次に、E-DAICデータセットの有効性を検証し、その性能への影響を評価する。
その結果,F1スコアはベースラインに比べて最大13.29ポイント向上することがわかった。
これは、AI駆動のメンタルヘルスアセスメントにおいて、人口格差に対処することの重要性を強調している。
関連論文リスト
- Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - A Data-Centric Approach to Detecting and Mitigating Demographic Bias in Pediatric Mental Health Text: A Case Study in Anxiety Detection [3.874958704454859]
臨床テキストにおけるジェンダーベースのコンテンツ格差に対処するデータ中心型脱バイアスフレームワークを開発した。
我々のアプローチは、テキストで訓練されたAI医療モデルのバイアスを軽減する効果的な戦略を示す。
論文 参考訳(メタデータ) (2024-12-30T20:00:22Z) - Machine Unlearning reveals that the Gender-based Violence Victim Condition can be detected from Speech in a Speaker-Agnostic Setting [0.0]
本研究は,ジェンダーベースの暴力が女性のメンタルヘルスに与える影響について論じる。
GBVはしばしば、不安、抑うつ、外傷後ストレス障害(PTSD)など、被害者に長期にわたる副作用をもたらす。
本研究は、ジェンダーベースの暴力被害者状態(GBVVC)の話者非依存的検出に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-27T09:53:53Z) - AI-Driven Early Mental Health Screening: Analyzing Selfies of Pregnant Women [32.514036618021244]
うつ病や不安障害は世界中で何百万もの人に影響を与え、精神疾患の重荷に大きく貢献する。
早期スクリーニングは、精神疾患のタイムリーな同定が治療成績を大幅に改善するので、効果的な介入に不可欠である。
本研究は、顔中心の自撮りを与えられたユビキタスな抑うつ不安スクリーニングのためのAIモデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-10-07T19:34:25Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Ontology-aware Learning and Evaluation for Audio Tagging [56.59107110017436]
平均平均精度(mAP)は、異なる種類の音をそれらの関係を考慮せずに独立したクラスとして扱う。
オントロジー認識平均平均精度(OmAP)は、評価中にAudioSetオントロジー情報を利用することで、mAPの弱点に対処する。
我々は人間の評価を行い、OmAPはmAPよりも人間の知覚と一致していることを示した。
論文 参考訳(メタデータ) (2022-11-22T11:35:14Z) - Bias Reducing Multitask Learning on Mental Health Prediction [18.32551434711739]
メンタルヘルスの検出や予測のための機械学習モデルの開発では、研究が増加している。
本研究では,マルチタスク学習に基づくバイアス緩和手法を不安予測モデルに適用し,公平性分析を行うことを目的とする。
分析の結果、我々の不安予測ベースモデルでは、年齢、収入、民族性、そして参加者が米国で生まれたかどうかに偏りが生じていた。
論文 参考訳(メタデータ) (2022-08-07T02:28:32Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。