論文の概要: Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts
- arxiv url: http://arxiv.org/abs/2410.11084v1
- Date: Mon, 14 Oct 2024 20:50:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:02:52.331187
- Title: Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts
- Title(参考訳): 大規模言語モデルを用いた意思決定におけるジェンダーバイアス--関係紛争の考察
- Authors: Sharon Levy, William D. Adler, Tahilin Sanchez Karver, Mark Dredze, Michelle R. Kaufman,
- Abstract要約: 大規模言語モデル(LLM)におけるジェンダーエクイティを意思決定レンズを用いて検討する。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
- 参考スコア(独自算出の注目度): 15.676219253088211
- License:
- Abstract: Large language models (LLMs) acquire beliefs about gender from training data and can therefore generate text with stereotypical gender attitudes. Prior studies have demonstrated model generations favor one gender or exhibit stereotypes about gender, but have not investigated the complex dynamics that can influence model reasoning and decision-making involving gender. We study gender equity within LLMs through a decision-making lens with a new dataset, DeMET Prompts, containing scenarios related to intimate, romantic relationships. We explore nine relationship configurations through name pairs across three name lists (men, women, neutral). We investigate equity in the context of gender roles through numerous lenses: typical and gender-neutral names, with and without model safety enhancements, same and mixed-gender relationships, and egalitarian versus traditional scenarios across various topics. While all models exhibit the same biases (women favored, then those with gender-neutral names, and lastly men), safety guardrails reduce bias. In addition, models tend to circumvent traditional male dominance stereotypes and side with 'traditionally female' individuals more often, suggesting relationships are viewed as a female domain by the models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、訓練データからジェンダーに関する信念を取得し、したがってステレオタイプなジェンダーの態度でテキストを生成することができる。
これまでの研究では、モデル世代は1つの性別を好むか、性別に関するステレオタイプを示すかを示してきたが、モデル推論や性別を含む意思決定に影響を及ぼす複雑なダイナミクスは研究されていない。
新しいデータセットであるDeMET Promptsを用いてLCM内のジェンダーエクイティを判断レンズを用いて研究し、親密でロマンチックな関係に関するシナリオを含む。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
我々は、多数のレンズを通して性役割の文脈における公平性について検討する: 典型的な名前と性別中立性、モデル安全性の向上と無関係性、同一性と混成性の関係性、および様々なトピックにおける平等と伝統的シナリオ。
すべてのモデルは、同じバイアス(女性、女性、性別中立の男性、そして最後に男性)を示すが、安全ガードレールはバイアスを減少させる。
さらに、モデルでは伝統的な男性優位のステレオタイプを回避し、より頻繁に「伝統的に女性の」個人と向き合う傾向があり、モデルによって関係は女性ドメインと見なされる。
関連論文リスト
- GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Bias in Text Embedding Models [0.0]
本稿では,一般的なテキスト埋め込みモデルの選択が,特に性別次元に偏りがある程度について検討する。
この分析によると、テキストの埋め込みモデルは男女差が多いが、様々な方法がある。
論文 参考訳(メタデータ) (2024-06-17T22:58:36Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - The Birth of Bias: A case study on the evolution of gender bias in an
English language model [1.6344851071810076]
私たちは、英語のウィキペディアコーパスでトレーニングされたLSTMアーキテクチャを使って、比較的小さな言語モデルを使用します。
性別の表現は動的であり、訓練中に異なる位相を識別する。
モデルの入力埋め込みにおいて,ジェンダー情報が局所的に表現されることが示される。
論文 参考訳(メタデータ) (2022-07-21T00:59:04Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Hi, my name is Martha: Using names to measure and mitigate bias in
generative dialogue models [14.624075519580405]
不均衡な性別と人種/民族の参照を含む実際の人間の会話で訓練されることは、学習されたバイアスを表示するモデルにつながる可能性がある。
本研究では,これらの対話モデル,特に名前のスクランブル,制御された生成,および不規則な訓練をチューニングする方法が,会話のバイアスを軽減するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-07T19:20:24Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。