論文の概要: The effects of gender bias in word embeddings on depression prediction
- arxiv url: http://arxiv.org/abs/2212.07852v1
- Date: Thu, 15 Dec 2022 14:19:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 15:57:33.928093
- Title: The effects of gender bias in word embeddings on depression prediction
- Title(参考訳): 単語埋め込みにおける性別バイアスが抑うつ予測に及ぼす影響
- Authors: Gizem Sogancioglu, Heysem Kaya
- Abstract要約: 精神障害領域における抑うつカテゴリーに特有な4種類の事前学習単語埋め込みにおける性別バイアスの分析を行った。
埋め込みの種類によって異なる性別グループに対して、埋め込みが抑うつのバイアスをもたらすことが観察された。
ジェンダーワードを単に置き換えることによるデータ拡張は、下流タスクにおけるバイアスを大幅に軽減する。
- 参考スコア(独自算出の注目度): 4.393278098614867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Word embeddings are extensively used in various NLP problems as a
state-of-the-art semantic feature vector representation. Despite their success
on various tasks and domains, they might exhibit an undesired bias for
stereotypical categories due to statistical and societal biases that exist in
the dataset they are trained on. In this study, we analyze the gender bias in
four different pre-trained word embeddings specifically for the depression
category in the mental disorder domain. We use contextual and non-contextual
embeddings that are trained on domain-independent as well as clinical
domain-specific data. We observe that embeddings carry bias for depression
towards different gender groups depending on the type of embeddings. Moreover,
we demonstrate that these undesired correlations are transferred to the
downstream task for depression phenotype recognition. We find that data
augmentation by simply swapping gender words mitigates the bias significantly
in the downstream task.
- Abstract(参考訳): ワード埋め込みは、最先端のセマンティック特徴ベクトル表現として様々なNLP問題で広く使われている。
様々なタスクやドメインで成功しているにもかかわらず、トレーニング対象のデータセットに存在する統計的および社会的バイアスにより、ステレオタイプカテゴリーに対して望ましくないバイアスを示す可能性がある。
本研究では,精神疾患領域における抑うつカテゴリーに特有な4種類の事前学習単語埋め込みにおける性別バイアスの分析を行った。
コンテキスト内および非コンテキスト内埋め込みは、臨床ドメイン固有のデータだけでなく、ドメイン非依存でトレーニングされます。
埋め込みの種類によって異なる性別グループに対する抑うつのバイアスが生じることが観察された。
さらに,これらの非好ましくない相関関係が,うつ病表現型認識の下流タスクに伝達されることを示す。
性別の単語を単に入れ替えることによるデータ拡張は、下流タスクのバイアスを著しく軽減する。
関連論文リスト
- Mitigating Gender Bias in Contextual Word Embeddings [1.208453901299241]
本稿では,コンテキスト埋め込みにおける性別バイアスを大幅に軽減する,リップスティック(マスケ・ランゲージ・モデリング)の新たな目的関数を提案する。
また, 静的な埋め込みを嫌悪する新しい手法を提案し, 広範囲な解析と実験による実証実験を行った。
論文 参考訳(メタデータ) (2024-11-18T21:36:44Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Gender bias in (non)-contextual clinical word embeddings for
stereotypical medical categories [0.4588028371034407]
本研究は, 精神疾患, 性感染症, 性格特性の3つの医療カテゴリーにおける, 臨床埋め込みの性別バイアスを分析した。
いずれの埋め込みもセンシティブな性グループに偏りがあることが示されるが,BioWordVecは3つのカテゴリーで臨床-BERTよりも高い偏りを示す。
論文 参考訳(メタデータ) (2022-08-02T10:02:21Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Word Embeddings via Causal Inference: Gender Bias Reducing and Semantic
Information Preserving [3.114945725130788]
本稿では、因果推論の枠組みを利用して、ジェンダーバイアスを効果的に除去する手法を提案する。
総括実験により,提案手法は男女の偏りを解消する作業において,最先端の成果を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-09T19:57:22Z) - Gender Bias Hidden Behind Chinese Word Embeddings: The Case of Chinese
Adjectives [0.0]
本論文は,中国語形容詞の独特な視点から,静的単語埋め込みにおける性別バイアスについて検討する。
生成した結果と人間によって表されたデータセットを比較することで,単語埋め込みに符号化された性別バイアスが人々の態度とどのように異なるかを示す。
論文 参考訳(メタデータ) (2021-06-01T02:12:45Z) - Investigating Gender Bias in BERT [22.066477991442003]
我々は、感情や感情の強さの予測に関連する5つの下流タスクにおいて、それが引き起こすジェンダーバイアスを分析した。
本稿では,各BERT層に対する1つの主方向という,きめ細かい性別方向を求めるアルゴリズムを提案する。
実験により, 下流タスクにおけるBERT誘発バイアスの低減に成功していることがわかった。
論文 参考訳(メタデータ) (2020-09-10T17:38:32Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。