論文の概要: [RE] Double-Hard Debias: Tailoring Word Embeddings for Gender Bias
Mitigation
- arxiv url: http://arxiv.org/abs/2104.06973v1
- Date: Wed, 14 Apr 2021 16:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:36:47.233396
- Title: [RE] Double-Hard Debias: Tailoring Word Embeddings for Gender Bias
Mitigation
- Title(参考訳): [RE]Double-Hard Debias:ジェンダーバイアス軽減のための単語埋め込み
- Authors: Haswanth Aekula, Sugam Garg, Animesh Gupta
- Abstract要約: トレーニングコーパスから意図しない性別バイアスを継承したとして、単語埋め込みが批判されている。
プログラマは男性とより密接な関係を持ち ホームメイカーは女性とより密接な関係があります
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite widespread use in natural language processing (NLP) tasks, word
embeddings have been criticized for inheriting unintended gender bias from
training corpora. programmer is more closely associated with man and homemaker
is more closely associated with woman. Such gender bias has also been shown to
propagate in downstream tasks.
- Abstract(参考訳): 自然言語処理(nlp)のタスクで広く使われているにもかかわらず、単語埋め込みは訓練コーパスから意図しない性別バイアスを継承したとして批判されている。
プログラマは男性とより密接な関係を持ち ホームメイカーは女性とより密接な関係があります
このようなジェンダーバイアスは下流のタスクで伝播することが示されている。
関連論文リスト
- Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Whose wife is it anyway? Assessing bias against same-gender relationships in machine translation [26.676686759877597]
機械翻訳は、しばしばバイアスのあるデータやアルゴリズムに悩まされる。
MTシステムにおける同性関係に対するバイアスの程度について検討する。
3つの一般的なMTサービスは、同じ性別のエンティティ間の関係に関する文を正確に翻訳することができないことが分かりました。
論文 参考訳(メタデータ) (2024-01-10T07:33:32Z) - Gender Inflected or Bias Inflicted: On Using Grammatical Gender Cues for
Bias Evaluation in Machine Translation [0.0]
我々はヒンディー語をソース言語とし、ヒンディー語(HI-EN)の異なるNMTシステムを評価するために、ジェンダー特化文の2つのセットを構築した。
本研究は,そのような外部バイアス評価データセットを設計する際に,言語の性質を考えることの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-07T07:09:59Z) - ''Fifty Shades of Bias'': Normative Ratings of Gender Bias in GPT
Generated English Text [11.085070600065801]
言語は、社会的信念システムの顕在化のための強力なツールとして機能する。
ジェンダーバイアスは、私たちの社会でもっとも普及しているバイアスの1つです。
我々は、GPT生成した英語テキストの最初のデータセットを作成し、男女バイアスの規範的評価を行う。
論文 参考訳(メタデータ) (2023-10-26T14:34:06Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Transcending the "Male Code": Implicit Masculine Biases in NLP Contexts [10.036312061637764]
批判奨学金は、バーチャルアシスタント(VA)のトレーニングに使用されるデータセットにおける性バイアスの問題を高めた
自然言語処理(NLP)データセットを2つ検討した。
その結果、性差のある言語が存在する場合、性バイアス、特に男性性バイアスがあることがわかった。
我々は、男女間のあいまいな関係を網羅するAVAという新しい辞書を提供する。
論文 参考訳(メタデータ) (2023-04-22T03:53:24Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Robustness and Reliability of Gender Bias Assessment in Word Embeddings:
The Role of Base Pairs [23.574442657224008]
単語埋め込みはジェンダーバイアスを示すことが示されており、これを定量化するために様々な方法が提案されている。
これまでの研究では、男女の単語ペアを利用して偏見を測定し、偏見のある類似点を抽出してきた。
これらの性的なペアへの依存には、強い制限があることが示される。
特に、"man is to computer-grammer as woman is to homemaker"というよく知られたアナロジーは、社会的バイアスよりも言葉の類似性によるものである。
論文 参考訳(メタデータ) (2020-10-06T16:09:05Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。