論文の概要: How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases
- arxiv url: http://arxiv.org/abs/2102.04130v1
- Date: Mon, 8 Feb 2021 11:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 04:55:42.560723
- Title: How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases
- Title(参考訳): GPT-2は本当ですか?
間欠的職業的ビアーゼの実証解析
- Authors: Hannah Kirk, Yennie Jun, Haider Iqbal, Elias Benussi, Filippo Volpin,
Frederic A. Dreyer, Aleksandar Shtedritski, Yuki M. Asano
- Abstract要約: 下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
- 参考スコア(独自算出の注目度): 50.591267188664666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The capabilities of natural language models trained on large-scale data have
increased immensely over the past few years. Downstream applications are at
risk of inheriting biases contained in these models, with potential negative
consequences especially for marginalized groups. In this paper, we analyze the
occupational biases of a popular generative language model, GPT-2, intersecting
gender with five protected categories: religion, sexuality, ethnicity,
political affiliation, and name origin. Using a novel data collection pipeline
we collect 396k sentence completions of GPT-2 and find: (i) The
machine-predicted jobs are less diverse and more stereotypical for women than
for men, especially for intersections; (ii) Fitting 262 logistic models shows
intersectional interactions to be highly relevant for occupational
associations; (iii) For a given job, GPT-2 reflects the societal skew of gender
and ethnicity in the US, and in some cases, pulls the distribution towards
gender parity, raising the normative question of what language models _should_
learn.
- Abstract(参考訳): 大規模なデータで訓練された自然言語モデルの能力は、ここ数年で大幅に増加しました。
下流のアプリケーションはこれらのモデルに含まれるバイアスを継承する危険性があり、特に辺縁化群に負の結果をもたらす可能性がある。
本論文では,宗教,性,民族,政治的所属,名称の5つのカテゴリーで性別を交差させ,人気のジェネレーション言語モデルであるGPT-2の職業バイアスを分析した。
Using a novel data collection pipeline we collect 396k sentence completions of GPT-2 and find: (i) The machine-predicted jobs are less diverse and more stereotypical for women than for men, especially for intersections; (ii) Fitting 262 logistic models shows intersectional interactions to be highly relevant for occupational associations; (iii) For a given job, GPT-2 reflects the societal skew of gender and ethnicity in the US, and in some cases, pulls the distribution towards gender parity, raising the normative question of what language models _should_ learn.
関連論文リスト
- Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Exploring Gender Bias in Retrieval Models [2.594412743115663]
情報検索におけるジェンダーバイアスの緩和は,ステレオタイプの普及を避けるために重要である。
本研究では,(1)クエリに対するドキュメントの関連性,(2)ドキュメントの“ジェンダー”という2つのコンポーネントからなるデータセットを用いる。
我々は,大容量のBERTエンコーダの完全微調整を行う場合,IRの事前学習モデルはゼロショット検索タスクではうまく動作しないことを示す。
また、事前学習されたモデルには性別バイアスがあり、検索された記事は女性よりも男性が多い傾向にあることを示した。
論文 参考訳(メタデータ) (2022-08-02T21:12:05Z) - The Birth of Bias: A case study on the evolution of gender bias in an
English language model [1.6344851071810076]
私たちは、英語のウィキペディアコーパスでトレーニングされたLSTMアーキテクチャを使って、比較的小さな言語モデルを使用します。
性別の表現は動的であり、訓練中に異なる位相を識別する。
モデルの入力埋め込みにおいて,ジェンダー情報が局所的に表現されることが示される。
論文 参考訳(メタデータ) (2022-07-21T00:59:04Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Collecting a Large-Scale Gender Bias Dataset for Coreference Resolution
and Machine Translation [10.542861450223128]
3つのドメインのコーパスにおいて,ステレオタイプおよび非ステレオタイプなジェンダーロール代入を示す文法パターンが発見された。
我々は、コーパスの品質を手動で検証し、様々なコア参照解像度と機械翻訳モデルにおける性別バイアスを評価する。
論文 参考訳(メタデータ) (2021-09-08T18:14:11Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [52.26915878371941]
世界のほとんどの国から250万人の政治家のデータセットを構築しています。
我々は、その政治家の名前にまつわる形容詞と動詞の用法を、性別の関数として定量化する。
以上の結果から,事前訓練された言語モデルにおける政治家に対する態度は,使用する言語に大きく依存することが示された。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - UnQovering Stereotyping Biases via Underspecified Questions [68.81749777034409]
未特定質問からバイアスを探索・定量化するためのフレームワークUNQOVERを提案する。
モデルスコアの素直な使用は,2種類の推論誤差による誤ったバイアス推定につながる可能性があることを示す。
我々はこの指標を用いて、性別、国籍、民族、宗教の4つの重要なステレオタイプの分析を行う。
論文 参考訳(メタデータ) (2020-10-06T01:49:52Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。