論文の概要: Unsupervised Discovery of Implicit Gender Bias
- arxiv url: http://arxiv.org/abs/2004.08361v2
- Date: Tue, 6 Oct 2020 16:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 13:16:06.930645
- Title: Unsupervised Discovery of Implicit Gender Bias
- Title(参考訳): 非監督的ジェンダーバイアスの発見
- Authors: Anjalie Field, Yulia Tsvetkov
- Abstract要約: 我々は、女性に対する性的偏見をコメントレベルで識別するために、教師なしのアプローチをとる。
主な課題は、データ内の他のアーティファクトではなく、暗黙のバイアスの兆候にモデルを集中させることです。
- 参考スコア(独自算出の注目度): 38.59057512390926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their prevalence in society, social biases are difficult to identify,
primarily because human judgements in this domain can be unreliable. We take an
unsupervised approach to identifying gender bias against women at a comment
level and present a model that can surface text likely to contain bias. Our
main challenge is forcing the model to focus on signs of implicit bias, rather
than other artifacts in the data. Thus, our methodology involves reducing the
influence of confounds through propensity matching and adversarial learning.
Our analysis shows how biased comments directed towards female politicians
contain mixed criticisms, while comments directed towards other female public
figures focus on appearance and sexualization. Ultimately, our work offers a
way to capture subtle biases in various domains without relying on subjective
human judgements.
- Abstract(参考訳): 社会での流行にもかかわらず、社会的偏見を識別することは困難であり、主にこの領域における人間の判断は信頼できない。
コメントレベルで女性に対するジェンダーバイアスを識別するために教師なしのアプローチを取り、バイアスを含む可能性のあるテキストを表面化するモデルを提示します。
主な課題は、データ内の他のアーティファクトではなく、暗黙のバイアスの兆候にモデルを集中させることです。
したがって,提案手法では,適応性マッチングと逆学習によってコンファウンドの影響を低減できる。
我々の分析は、女性政治家に向けられた偏見のあるコメントには、さまざまな批判が含まれていることを示している。
最終的に私たちの研究は、主観的な人間の判断に頼ることなく、さまざまな領域の微妙な偏見を捉える方法を提供する。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - ''Fifty Shades of Bias'': Normative Ratings of Gender Bias in GPT
Generated English Text [11.085070600065801]
言語は、社会的信念システムの顕在化のための強力なツールとして機能する。
ジェンダーバイアスは、私たちの社会でもっとも普及しているバイアスの1つです。
我々は、GPT生成した英語テキストの最初のデータセットを作成し、男女バイアスの規範的評価を行う。
論文 参考訳(メタデータ) (2023-10-26T14:34:06Z) - DiFair: A Benchmark for Disentangled Assessment of Gender Knowledge and
Bias [13.928591341824248]
事前訓練された言語モデルでよく見られる性別バイアスを軽減するために、デバイアス技術が提案されている。
これらはしばしば、予測においてモデルが性中立である範囲をチェックするデータセットで評価される。
この評価プロトコルは、バイアス緩和が有意義なジェンダー知識に悪影響を及ぼす可能性を見落としている。
論文 参考訳(メタデータ) (2023-10-22T15:27:16Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Uncovering Implicit Gender Bias in Narratives through Commonsense
Inference [21.18458377708873]
モデル生成物語における主人公に関連する性別バイアスについて検討する。
暗黙のバイアスに注目し、コモンセンス推論エンジンを使ってそれらを明らかにする。
論文 参考訳(メタデータ) (2021-09-14T04:57:45Z) - Evaluating Gender Bias in Natural Language Inference [5.034017602990175]
推論による自然言語理解における性別バイアスの評価手法を提案する。
チャレンジタスクを使用して、職業を用いたジェンダーステレオタイプの存在に関する最先端のNLIモデルを調査します。
その結果,mnliとsnliデータセットでトレーニングされた3モデルでは,性別による予測誤差が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2021-05-12T09:41:51Z) - Robustness and Reliability of Gender Bias Assessment in Word Embeddings:
The Role of Base Pairs [23.574442657224008]
単語埋め込みはジェンダーバイアスを示すことが示されており、これを定量化するために様々な方法が提案されている。
これまでの研究では、男女の単語ペアを利用して偏見を測定し、偏見のある類似点を抽出してきた。
これらの性的なペアへの依存には、強い制限があることが示される。
特に、"man is to computer-grammer as woman is to homemaker"というよく知られたアナロジーは、社会的バイアスよりも言葉の類似性によるものである。
論文 参考訳(メタデータ) (2020-10-06T16:09:05Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。