論文の概要: In-Contextual Bias Suppression for Large Language Models
- arxiv url: http://arxiv.org/abs/2309.07251v1
- Date: Wed, 13 Sep 2023 18:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 17:09:59.564756
- Title: In-Contextual Bias Suppression for Large Language Models
- Title(参考訳): 大規模言語モデルの文脈内バイアス抑制
- Authors: Daisuke Oba, Masahiro Kaneko, Danushka Bollegala
- Abstract要約: 大きな言語モデル (LLM) は、性バイアスの心配レベルをエンコードしていると報告されている。
本稿では,モデルパラメータへのアクセスを必要としないバイアス抑制法を提案する。
バイアス抑制は、下流タスクのパフォーマンスに最小限の悪影響を及ぼすが、効果的に性別バイアスを軽減できる。
- 参考スコア(独自算出の注目度): 47.246504807946884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their impressive performance in a wide range of NLP tasks, Large
Language Models (LLMs) have been reported to encode worrying-levels of gender
bias. Prior work has proposed debiasing methods that require human labelled
examples, data augmentation and fine-tuning of the LLMs, which are
computationally costly. Moreover, one might not even have access to the
internal parameters for performing debiasing such as in the case of
commercially available LLMs such as GPT-4. To address this challenge we propose
bias suppression, a novel alternative to debiasing that does not require access
to model parameters. We show that text-based preambles, generated from manually
designed templates covering counterfactual statements, can accurately suppress
gender biases in LLMs. Moreover, we find that descriptive sentences for
occupations can further suppress gender biases. Interestingly, we find that
bias suppression has a minimal adverse effect on downstream task performance,
while effectively mitigating the gender biases.
- Abstract(参考訳): 幅広いnlpタスクでの印象的なパフォーマンスにもかかわらず、大きな言語モデル(llm)は性バイアスの懸念レベルをエンコードしていると報告されている。
従来の研究では、人間のラベル付き例、データ拡張、計算コストのかかるLSMの微調整を必要とするデバイアス法が提案されている。
さらに、GPT-4のような商業的に利用可能なLCMの場合のように、デバイアスを行うための内部パラメータにアクセスできない場合もある。
この課題に対処するため,モデルパラメータへのアクセスを必要としないバイアス抑制法を提案する。
テキストベースのプリアンブルは, 対物文を記述したテンプレートから生成され, LLMの性別バイアスを正確に抑制できることを示す。
さらに,職業用記述文は,ジェンダーバイアスをさらに抑制できることがわかった。
興味深いことに、バイアス抑制は下流タスクのパフォーマンスに最小限の悪影響を及ぼすが、効果的に性別バイアスを緩和する。
関連論文リスト
- Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - Evaluating Gender Bias in Large Language Models via Chain-of-Thought
Prompting [87.30837365008931]
CoT(Chain-of-Thought)プロンプトを備えた大規模言語モデル(LLM)は、計算不能なタスクでも正確なインクリメンタルな予測を行うことができる。
本研究では,LLMのステップバイステップ予測が性差に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2024-01-28T06:50:10Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - A Tale of Pronouns: Interpretability Informs Gender Bias Mitigation for
Fairer Instruction-Tuned Machine Translation [35.44115368160656]
機械翻訳モデルがジェンダーバイアスを示すか否かについて検討する。
We found that IFT model default to male-inflected translations, evengarding female occupational stereotypes。
実装が容易で効果的なバイアス緩和ソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-18T17:36:55Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Gender-tuning: Empowering Fine-tuning for Debiasing Pre-trained Language
Models [9.534831387705312]
既存のソリューションでは、デバイアスを行うためのトレーニングプロセスとデータセットが必要です。
ジェンダーチューニングは、Masked Language Modeling(MLM)トレーニング目標を微調整のトレーニングプロセスに統合する。
包括的実験により、ジェンダーチューニングはPLMにおける平均性差スコアにおいて最先端のベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-07-20T01:48:51Z) - MABEL: Attenuating Gender Bias using Textual Entailment Data [20.489427903240017]
我々は、文脈化表現における性別バイアスを軽減するための中間的事前学習手法であるMABELを提案する。
このアプローチの鍵となるのは、非現実的に強化されたジェンダーバランスのエンターメントペアに対して、対照的な学習目標を使用することである。
我々はMABELが従来のタスク非依存のデバイアスアプローチよりも公平性で優れていることを示す。
論文 参考訳(メタデータ) (2022-10-26T18:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。