論文の概要: Looking for a Handsome Carpenter! Debiasing GPT-3 Job Advertisements
- arxiv url: http://arxiv.org/abs/2205.11374v1
- Date: Mon, 23 May 2022 15:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 01:47:59.497427
- Title: Looking for a Handsome Carpenter! Debiasing GPT-3 Job Advertisements
- Title(参考訳): ハンサムな大工を探してる!
gpt-3ジョブ広告のデバイアス化
- Authors: Conrad Borchers, Dalia Sara Gala, Benjamin Gilburt, Eduard Oravkin,
Wilfried Bounsi, Yuki M. Asano, Hannah Rose Kirk
- Abstract要約: 我々は、不偏で現実的な求人広告を書くことを目的として、人気のあるジェネレーティブ言語モデルGPT-3を活用している。
まず、ゼロショット生成した広告のバイアスと現実性を評価し、現実の広告と比較する。
多様性を増進するプロンプトによるプロンプトエンジニアリングはバイアスやリアリズムに有意な改善を与えないことがわかった。
- 参考スコア(独自算出の注目度): 4.848938971173454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing capability and availability of generative language models has
enabled a wide range of new downstream tasks. Academic research has identified,
quantified and mitigated biases present in language models but is rarely
tailored to downstream tasks where wider impact on individuals and society can
be felt. In this work, we leverage one popular generative language model,
GPT-3, with the goal of writing unbiased and realistic job advertisements. We
first assess the bias and realism of zero-shot generated advertisements and
compare them to real-world advertisements. We then evaluate prompt-engineering
and fine-tuning as debiasing methods. We find that prompt-engineering with
diversity-encouraging prompts gives no significant improvement to bias, nor
realism. Conversely, fine-tuning, especially on unbiased real advertisements,
can improve realism and reduce bias.
- Abstract(参考訳): ジェネレーティブ言語モデルの能力と可用性の増大により、新しいダウンストリームタスクが幅広く可能になった。
学術研究は言語モデルに存在するバイアスを特定し、定量化し、軽減してきたが、個人や社会に大きな影響を与える下流のタスクに合わせることは滅多にない。
本研究では,不偏で現実的な求人広告を書くことを目的として,人気のある生成言語モデルGPT-3を活用する。
まずゼロショット生成広告のバイアスとリアリズムを評価し,実際の広告と比較する。
次に,ディバイアス手法としてプロンプトエンジニアリングと微調整を評価する。
多様性を高めるプロンプトによるプロンプトエンジニアリングは、バイアスやリアリズムに大きな改善をもたらすものではない。
逆に、微調整、特にバイアスのない実際の広告では、現実主義を改善し、バイアスを減らすことができる。
関連論文リスト
- BiasKG: Adversarial Knowledge Graphs to Induce Bias in Large Language Models [19.446333438385153]
本稿では,知識グラフを付加した言語モデルに対する新たな攻撃手法を提案する。
我々は、自然言語のステレオタイプを知識グラフに誘導し、敵攻撃戦略を使用する。
我々の手法は、安全ガードレールで訓練された者でさえ、すべてのモデルのバイアスを増加させる。
論文 参考訳(メタデータ) (2024-05-08T01:51:29Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Soft-prompt Tuning for Large Language Models to Evaluate Bias [0.03141085922386211]
ソフトプロンプトを用いてバイアスを評価することで、人間のバイアス注入を避けるというメリットが得られます。
グループフェアネス(バイアス)を用いて、異なる感度属性のモデルバイアスをチェックし、興味深いバイアスパターンを見つけます。
論文 参考訳(メタデータ) (2023-06-07T19:11:25Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - An Empirical Survey of the Effectiveness of Debiasing Techniques for
Pre-Trained Language Models [4.937002982255573]
最近の研究によると、事前学習された言語モデルは、訓練されたテキストコーパスから社会的偏見を捉えている。
最近提案された5つのデバイアス技術: 対実データ拡張、ドロップアウト、イテレーティブヌルスペース投影、セルフデバイアス、センテンスデバイアス。
3つの異なるバイアスベンチマークを用いて各手法の有効性を定量化するとともに,これらの手法がモデル言語モデリング能力に与える影響を計測する。
論文 参考訳(メタデータ) (2021-10-16T09:40:30Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - RedditBias: A Real-World Resource for Bias Evaluation and Debiasing of
Conversational Language Models [37.98671828283487]
テキスト表現モデルは、様々な社会的バイアスを示す傾向がある。
最近の研究は、事前訓練された言語モデルにおけるバイアスの測定と緩和に重点を置いている。
RedditBiasは、Redditによる人間の会話をベースとした初めての会話データセットだ。
論文 参考訳(メタデータ) (2021-06-07T11:22:39Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。