論文の概要: Gender and Racial Fairness in Depression Research using Social Media
- arxiv url: http://arxiv.org/abs/2103.10550v1
- Date: Thu, 18 Mar 2021 22:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:37:14.506665
- Title: Gender and Racial Fairness in Depression Research using Social Media
- Title(参考訳): ソーシャルメディアを用いた抑うつ研究におけるジェンダーとレイカルフェアネス
- Authors: Carlos Aguirre, Keith Harrigian, Mark Dredze
- Abstract要約: ソーシャルメディアデータは、計算レンズからメンタルヘルス研究への関心を高めました。
これまでの研究では、このデータから生成されたモデルのバイアスが懸念されている。
我々の研究は、将来の研究でこれらのバイアスを避けるための推奨事項で締めくくっている。
- 参考スコア(独自算出の注目度): 13.512136878021854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple studies have demonstrated that behavior on internet-based social
media platforms can be indicative of an individual's mental health status. The
widespread availability of such data has spurred interest in mental health
research from a computational lens. While previous research has raised concerns
about possible biases in models produced from this data, no study has
quantified how these biases actually manifest themselves with respect to
different demographic groups, such as gender and racial/ethnic groups. Here, we
analyze the fairness of depression classifiers trained on Twitter data with
respect to gender and racial demographic groups. We find that model performance
systematically differs for underrepresented groups and that these discrepancies
cannot be fully explained by trivial data representation issues. Our study
concludes with recommendations on how to avoid these biases in future research.
- Abstract(参考訳): 複数の研究により、インターネットベースのソーシャルメディアプラットフォームにおける行動は個人のメンタルヘルス状態を示すことができることが示されている。
このようなデータの普及により、計算レンズからのメンタルヘルス研究への関心が高まっている。
これまでの研究では、このデータから生成されたモデルにおけるバイアスの可能性に関する懸念が提起されているが、これらのバイアスが、性別や人種・民族グループなど、異なる人口集団に対して実際にどのように現れるかを定量化していない。
本稿では,twitterデータを用いた抑うつ分類の公平性について,性別・人種集団について分析する。
非表現群ではモデル性能が系統的に異なっており、これらの不一致は自明なデータ表現問題によって完全には説明できない。
我々の研究は、将来の研究でこれらのバイアスを避けるための推奨事項で締めくくっている。
関連論文リスト
- Decoding Susceptibility: Modeling Misbelief to Misinformation Through a
Computational Approach [63.67533153887132]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - What's Race Got to do with it? Predicting Youth Depression Across Racial
Groups Using Machine and Deep Learning [0.0]
うつ病は一般的だが深刻な精神障害であり、毎年何百万人もの高校生に影響を与えている。
本研究では、機械学習(ML)モデルと人工知能ニューラルネットワーク(ANN)モデルを用いて、学生のうつ病を分類する手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T13:59:50Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - The Tail Wagging the Dog: Dataset Construction Biases of Social Bias
Benchmarks [75.58692290694452]
社会的偏見と、データセット構築時に選択された選択から生じる非社会的偏見を比較し、人間の目では識別できないかもしれない。
これらの浅い修正は、様々なモデルにまたがるバイアスの程度に驚くべき影響を及ぼす。
論文 参考訳(メタデータ) (2022-10-18T17:58:39Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z) - Measuring Social Biases of Crowd Workers using Counterfactual Queries [84.10721065676913]
性別、人種などに基づく社会的バイアスは、主にバイアス付きトレーニングデータセットを介して、汚染された機械学習(ML)パイプラインに示されている。
クラウドソーシング(Crowdsourcing)は、ラベル付きトレーニングデータセットを収集するための一般的な費用効果尺度であり、群衆労働者の社会的偏見に免疫がない。
本研究では, 集団労働者ごとの社会的バイアスの程度を定量化するための, 対実的公正度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-04T21:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。