論文の概要: Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts
- arxiv url: http://arxiv.org/abs/2410.11084v1
- Date: Mon, 14 Oct 2024 20:50:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:02:52.331187
- Title: Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts
- Title(参考訳): 大規模言語モデルを用いた意思決定におけるジェンダーバイアス--関係紛争の考察
- Authors: Sharon Levy, William D. Adler, Tahilin Sanchez Karver, Mark Dredze, Michelle R. Kaufman,
- Abstract要約: 大規模言語モデル(LLM)におけるジェンダーエクイティを意思決定レンズを用いて検討する。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
- 参考スコア(独自算出の注目度): 15.676219253088211
- License:
- Abstract: Large language models (LLMs) acquire beliefs about gender from training data and can therefore generate text with stereotypical gender attitudes. Prior studies have demonstrated model generations favor one gender or exhibit stereotypes about gender, but have not investigated the complex dynamics that can influence model reasoning and decision-making involving gender. We study gender equity within LLMs through a decision-making lens with a new dataset, DeMET Prompts, containing scenarios related to intimate, romantic relationships. We explore nine relationship configurations through name pairs across three name lists (men, women, neutral). We investigate equity in the context of gender roles through numerous lenses: typical and gender-neutral names, with and without model safety enhancements, same and mixed-gender relationships, and egalitarian versus traditional scenarios across various topics. While all models exhibit the same biases (women favored, then those with gender-neutral names, and lastly men), safety guardrails reduce bias. In addition, models tend to circumvent traditional male dominance stereotypes and side with 'traditionally female' individuals more often, suggesting relationships are viewed as a female domain by the models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、訓練データからジェンダーに関する信念を取得し、したがってステレオタイプなジェンダーの態度でテキストを生成することができる。
これまでの研究では、モデル世代は1つの性別を好むか、性別に関するステレオタイプを示すかを示してきたが、モデル推論や性別を含む意思決定に影響を及ぼす複雑なダイナミクスは研究されていない。
新しいデータセットであるDeMET Promptsを用いてLCM内のジェンダーエクイティを判断レンズを用いて研究し、親密でロマンチックな関係に関するシナリオを含む。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
我々は、多数のレンズを通して性役割の文脈における公平性について検討する: 典型的な名前と性別中立性、モデル安全性の向上と無関係性、同一性と混成性の関係性、および様々なトピックにおける平等と伝統的シナリオ。
すべてのモデルは、同じバイアス(女性、女性、性別中立の男性、そして最後に男性)を示すが、安全ガードレールはバイアスを減少させる。
さらに、モデルでは伝統的な男性優位のステレオタイプを回避し、より頻繁に「伝統的に女性の」個人と向き合う傾向があり、モデルによって関係は女性ドメインと見なされる。
関連論文リスト
- Gender Bias in Instruction-Guided Speech Synthesis Models [55.2480439325792]
本研究では、モデルが職業関連プロンプトをどのように解釈するかにおける潜在的な性別バイアスについて検討する。
このようなプロンプトを解釈する際に、これらのモデルがジェンダーステレオタイプを増幅する傾向を示すかどうかを検討する。
実験の結果, ある職業において, 性別偏見を示す傾向が示された。
論文 参考訳(メタデータ) (2025-02-08T17:38:24Z) - Gender Bias in Text-to-Video Generation Models: A case study of Sora [63.064204206220936]
本研究では,OpenAIのテキスト・ビデオ生成モデルであるSoraにおけるジェンダーバイアスの存在について検討した。
性別ニュートラルとステレオタイププロンプトの多種多様なセットから生成されたビデオを分析し、バイアスの有意な証拠を明らかにした。
論文 参考訳(メタデータ) (2024-12-30T18:08:13Z) - Evaluating Gender Bias in Large Language Models [0.8636148452563583]
本研究では,大規模言語モデル (LLMs) が職業文脈における代名詞選択における性別バイアスの程度について検討した。
対象とする職業は、男性に有意な存在感を持つものから女性に有意な集中力を持つものまで幅広い。
その結果, モデルの代名詞選択と, 労働力データに存在する性別分布との間には, 正の相関関係が認められた。
論文 参考訳(メタデータ) (2024-11-14T22:23:13Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Bias in Text Embedding Models [0.0]
本稿では,一般的なテキスト埋め込みモデルの選択が,特に性別次元に偏りがある程度について検討する。
この分析によると、テキストの埋め込みモデルは男女差が多いが、様々な方法がある。
論文 参考訳(メタデータ) (2024-06-17T22:58:36Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Hi, my name is Martha: Using names to measure and mitigate bias in
generative dialogue models [14.624075519580405]
不均衡な性別と人種/民族の参照を含む実際の人間の会話で訓練されることは、学習されたバイアスを表示するモデルにつながる可能性がある。
本研究では,これらの対話モデル,特に名前のスクランブル,制御された生成,および不規則な訓練をチューニングする方法が,会話のバイアスを軽減するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-07T19:20:24Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。