論文の概要: Gender Bias in Depression Detection Using Audio Features
- arxiv url: http://arxiv.org/abs/2010.15120v3
- Date: Wed, 18 Aug 2021 10:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 06:31:30.368642
- Title: Gender Bias in Depression Detection Using Audio Features
- Title(参考訳): 音声特徴を用いた抑うつ検出におけるジェンダーバイアス
- Authors: Andrew Bailey and Mark D. Plumbley
- Abstract要約: うつ病は大規模精神疾患である。
データセットの識別は、歪んだ分類性能をもたらす可能性がある。
DAIC-WOZの性別バイアスは,性能の過度な報告につながる可能性が示唆された。
- 参考スコア(独自算出の注目度): 21.12297972571067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depression is a large-scale mental health problem and a challenging area for
machine learning researchers in detection of depression. Datasets such as
Distress Analysis Interview Corpus - Wizard of Oz (DAIC-WOZ) have been created
to aid research in this area. However, on top of the challenges inherent in
accurately detecting depression, biases in datasets may result in skewed
classification performance. In this paper we examine gender bias in the
DAIC-WOZ dataset. We show that gender biases in DAIC-WOZ can lead to an
overreporting of performance. By different concepts from Fair Machine Learning,
such as data re-distribution, and using raw audio features, we can mitigate
against the harmful effects of bias.
- Abstract(参考訳): うつ病は大規模なメンタルヘルスの問題であり、うつ病の検出において機械学習研究者にとって困難な領域である。
ディストレス分析インタビューコーパス-オズの魔法使い(DAIC-WOZ)のようなデータセットは、この分野の研究を支援するために作成されている。
しかしながら、うつ病を正確に検出する本質的な課題に加えて、データセットのバイアスは、歪んだ分類性能をもたらす可能性がある。
本稿では,DAIC-WOZデータセットの性別バイアスについて検討する。
DAIC-WOZの性別バイアスは,性能の過度な報告につながる可能性が示唆された。
データの再配布や生のオーディオ機能など、Fair Machine Learningとは別の概念によって、バイアスの有害な影響を軽減できます。
関連論文リスト
- A BERT-Based Summarization approach for depression detection [1.7363112470483526]
うつ病は世界中で流行する精神疾患であり、対処されないと深刻な反感を引き起こす可能性がある。
機械学習と人工知能は、さまざまなデータソースからのうつ病指標を自律的に検出することができる。
本研究では,入力テキストの長さと複雑さを低減させる前処理手法として,テキスト要約を提案する。
論文 参考訳(メタデータ) (2024-09-13T02:14:34Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - The Relationship Between Speech Features Changes When You Get Depressed:
Feature Correlations for Improving Speed and Performance of Depression
Detection [69.88072583383085]
この研究は、抑うつが音声から抽出した特徴間の相関を変化させることを示す。
このような洞察を用いることで、SVMとLSTMに基づく抑うつ検出器のトレーニング速度と性能を向上させることができる。
論文 参考訳(メタデータ) (2023-07-06T09:54:35Z) - The effects of gender bias in word embeddings on depression prediction [4.393278098614867]
精神障害領域における抑うつカテゴリーに特有な4種類の事前学習単語埋め込みにおける性別バイアスの分析を行った。
埋め込みの種類によって異なる性別グループに対して、埋め込みが抑うつのバイアスをもたらすことが観察された。
ジェンダーワードを単に置き換えることによるデータ拡張は、下流タスクにおけるバイアスを大幅に軽減する。
論文 参考訳(メタデータ) (2022-12-15T14:19:33Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Data set creation and empirical analysis for detecting signs of
depression from social media postings [0.0]
うつ病は、深刻な結果を避けるために、早期に検出され治療されなければならない一般的な精神疾患である。
我々は、ソーシャルメディアの投稿から、うつ病のレベルが落ち込んでいないこと、中程度に落ち込んでいないこと、および深刻な落ち込んでいないことを検知する、金の標準データセットを開発した。
論文 参考訳(メタデータ) (2022-02-07T10:24:33Z) - Gender and Racial Fairness in Depression Research using Social Media [13.512136878021854]
ソーシャルメディアデータは、計算レンズからメンタルヘルス研究への関心を高めました。
これまでの研究では、このデータから生成されたモデルのバイアスが懸念されている。
我々の研究は、将来の研究でこれらのバイアスを避けるための推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2021-03-18T22:34:41Z) - Deep Multi-task Learning for Depression Detection and Prediction in
Longitudinal Data [50.02223091927777]
うつ病は最も多い精神疾患の1つであり、世界中の年齢の何百万人もの人々に影響を与えている。
機械学習技術は、早期介入と治療のためのうつ病の自動検出と予測を可能にしている。
本稿では、この課題に対処するために、2つの補助的タスクでうつ病分類を共同最適化する、新しいディープマルチタスクリカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-05T05:14:14Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。