論文の概要: Mitigating Gender Bias in Depression Detection via Counterfactual Inference
- arxiv url: http://arxiv.org/abs/2512.01834v1
- Date: Mon, 01 Dec 2025 16:14:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.953206
- Title: Mitigating Gender Bias in Depression Detection via Counterfactual Inference
- Title(参考訳): 逆推定による抑うつ検出におけるジェンダーバイアスの緩和
- Authors: Mingxuan Hu, Hongbo Ma, Xinlan Wu, Ziqi Liu, Jiaqi Liu, Yangbin Chen,
- Abstract要約: 抑うつ検出モデルは、不均衡なトレーニングデータによって、しばしば性別バイアスに悩まされる。
本稿では,因果推論に基づく新しいデバイアス対策フレームワークを提案する。
我々のフレームワークは、性別バイアスを著しく低減するだけでなく、全体的な検出性能も向上する。
- 参考スコア(独自算出の注目度): 16.49171032612706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Audio-based depression detection models have demonstrated promising performance but often suffer from gender bias due to imbalanced training data. Epidemiological statistics show a higher prevalence of depression in females, leading models to learn spurious correlations between gender and depression. Consequently, models tend to over-diagnose female patients while underperforming on male patients, raising significant fairness concerns. To address this, we propose a novel Counterfactual Debiasing Framework grounded in causal inference. We construct a causal graph to model the decision-making process and identify gender bias as the direct causal effect of gender on the prediction. During inference, we employ counterfactual inference to estimate and subtract this direct effect, ensuring the model relies primarily on authentic acoustic pathological features. Extensive experiments on the DAIC-WOZ dataset using two advanced acoustic backbones demonstrate that our framework not only significantly reduces gender bias but also improves overall detection performance compared to existing debiasing strategies.
- Abstract(参考訳): オーディオベースの抑うつ検出モデルは、有望なパフォーマンスを示すが、不均衡なトレーニングデータのために、しばしば性別バイアスに悩まされる。
疫学的統計によると、女性はうつ病の頻度が高く、性差とうつ病の相関関係を学習するモデルが導かれる。
その結果、モデルでは男性患者を過度に診る一方で、女性患者を過度に診断する傾向にある。
そこで本研究では,因果推論に基づく新しいデバイアス対策フレームワークを提案する。
本研究では,意思決定過程をモデル化した因果グラフを構築し,性別バイアスを予測に対する性別の直接的な因果効果として同定する。
この直接効果を推定・減算するために,本手法では,本モデルが主に音響病理学的特徴に依存していることを保証する。
2つの高度な音響バックボーンを用いたDAIC-WOZデータセットの大規模な実験により、我々のフレームワークは性バイアスを著しく低減するだけでなく、既存のデバイアス対策と比較して全体的な検出性能も向上することが示された。
関連論文リスト
- Domain Adversarial Training for Mitigating Gender Bias in Speech-based Mental Health Detection [9.82676920954754]
本稿では,音声による抑うつとPTSD検出において,性差を明確に考慮するドメイン逆行訓練手法を提案する。
その結果,F1スコアはベースラインに比べて最大13.29ポイント向上することがわかった。
論文 参考訳(メタデータ) (2025-05-06T09:29:14Z) - A Data-Centric Approach to Detecting and Mitigating Demographic Bias in Pediatric Mental Health Text: A Case Study in Anxiety Detection [3.874958704454859]
臨床テキストにおけるジェンダーベースのコンテンツ格差に対処するデータ中心型脱バイアスフレームワークを開発した。
我々のアプローチは、テキストで訓練されたAI医療モデルのバイアスを軽減する効果的な戦略を示す。
論文 参考訳(メタデータ) (2024-12-30T20:00:22Z) - How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Evaluating Bias and Fairness in Gender-Neutral Pretrained
Vision-and-Language Models [23.65626682262062]
我々は,3種類の視覚・言語モデルを用いた事前学習および微調整後のバイアス増幅の定量化を行う。
全体として、事前学習および微調整後のバイアス増幅は独立である。
論文 参考訳(メタデータ) (2023-10-26T16:19:19Z) - Are Sex-based Physiological Differences the Cause of Gender Bias for
Chest X-ray Diagnosis? [2.1601966913620325]
機械学習を用いた胸部X線診断における性別バイアスの原因について検討した。
特に,乳房組織が肺の露出不足につながるという仮説を考察する。
広範に利用されている2つの公開データセットにおける患者1人あたりの録音の高度に歪んだ分布に対処する新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T10:19:51Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Bias Reducing Multitask Learning on Mental Health Prediction [18.32551434711739]
メンタルヘルスの検出や予測のための機械学習モデルの開発では、研究が増加している。
本研究では,マルチタスク学習に基づくバイアス緩和手法を不安予測モデルに適用し,公平性分析を行うことを目的とする。
分析の結果、我々の不安予測ベースモデルでは、年齢、収入、民族性、そして参加者が米国で生まれたかどうかに偏りが生じていた。
論文 参考訳(メタデータ) (2022-08-07T02:28:32Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。