論文の概要: QueerGen: How LLMs Reflect Societal Norms on Gender and Sexuality in Sentence Completion Tasks
- arxiv url: http://arxiv.org/abs/2601.20731v1
- Date: Wed, 28 Jan 2026 16:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:07.012077
- Title: QueerGen: How LLMs Reflect Societal Norms on Gender and Sexuality in Sentence Completion Tasks
- Title(参考訳): QueerGen: LLMはジェンダーとセクシュアリティにソシエタリなノルムを反映する
- Authors: Mae Sosto, Delfina Sol Martinez Pandiani, Laura Hollink,
- Abstract要約: 対象者の性別やセクシュアリティに関する明示的な情報が,3つのカテゴリーにまたがる反応に影響を及ぼすか否かを検討する。
以上の結果から,masked Language Models (MLMs) が最も好ましくない感情を呈し, 有毒度が高く, クイアマークの被験者に対してより否定的な評価が得られた。
- 参考スコア(独自算出の注目度): 0.38887448816036313
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper examines how Large Language Models (LLMs) reproduce societal norms, particularly heterocisnormativity, and how these norms translate into measurable biases in their text generations. We investigate whether explicit information about a subject's gender or sexuality influences LLM responses across three subject categories: queer-marked, non-queer-marked, and the normalized "unmarked" category. Representational imbalances are operationalized as measurable differences in English sentence completions across four dimensions: sentiment, regard, toxicity, and prediction diversity. Our findings show that Masked Language Models (MLMs) produce the least favorable sentiment, higher toxicity, and more negative regard for queer-marked subjects. Autoregressive Language Models (ARLMs) partially mitigate these patterns, while closed-access ARLMs tend to produce more harmful outputs for unmarked subjects. Results suggest that LLMs reproduce normative social assumptions, though the form and degree of bias depend strongly on specific model characteristics, which may redistribute, but not eliminate, representational harms.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) が社会的規範,特にヘテロシノルマティビティをいかに再現するか,またそれらの規範がテキスト世代における可測バイアスにどのように変換されるかを検討する。
対象者の性別やセクシュアリティに関する明示的な情報が,3つのカテゴリ(クイアマーク,非クイアマーク,正規化"アンマーク")にまたがるLSM応答に影響を及ぼすかどうかを検討する。
表現の不均衡は、感情、尊敬、毒性、予測多様性の4次元にわたる英文完成度の測定可能な相違として運用されている。
以上の結果から,masked Language Models (MLMs) が最も好ましくない感情を呈し, 有毒度が高く, クイアマークの被験者に対してより否定的な評価が得られた。
自己回帰言語モデル(ARLM)はこれらのパターンを部分的に緩和する一方、閉鎖アクセスARLMは無意味な被験者に対してより有害な出力を生成する傾向がある。
結果は、LLMは規範的な社会的仮定を再現するが、偏見の形式と程度は特定のモデル特性に強く依存しており、それは再分割されるが、排除されない、表現的害である可能性があることを示唆している。
関連論文リスト
- More Women, Same Stereotypes: Unpacking the Gender Bias Paradox in Large Language Models [3.154053412440065]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、社会的偏見を反映または増幅する傾向について懸念が持たれている。
本研究では,LSMにおける性別バイアスを明らかにするための新しい評価枠組みを提案する。
10の著名なLSMの体系的な分析は、職業全体にわたって女性キャラクターを過剰に表現する一貫したパターンを示している。
論文 参考訳(メタデータ) (2025-03-20T07:15:45Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Evaluating Gender Bias in Large Language Models via Chain-of-Thought
Prompting [87.30837365008931]
CoT(Chain-of-Thought)プロンプトを備えた大規模言語モデル(LLM)は、計算不能なタスクでも正確なインクリメンタルな予測を行うことができる。
本研究では,LLMのステップバイステップ予測が性差に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2024-01-28T06:50:10Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - In-Contextual Gender Bias Suppression for Large Language Models [47.246504807946884]
大きな言語モデル (LLM) は、性バイアスの心配レベルをエンコードしていると報告されている。
手動で設計したテンプレートから構築したプリアンブルを提供することにより,LLMのバイアス発生を防止するバイアス抑制を提案する。
その結果,HellaSwag と COPA による下流タスク性能にバイアス抑制が悪影響があることが判明した。
論文 参考訳(メタデータ) (2023-09-13T18:39:08Z) - Queer People are People First: Deconstructing Sexual Identity
Stereotypes in Large Language Models [3.974379576408554]
大規模言語モデル(LLM)は、主に最小処理のWebテキストに基づいて訓練される。
LLMはLGBTQIA+コミュニティのような、疎外されたグループに対して必然的にステレオタイプを永続させることができる。
論文 参考訳(メタデータ) (2023-06-30T19:39:01Z) - Marked Personas: Using Natural Language Prompts to Measure Stereotypes
in Language Models [33.157279170602784]
大規模言語モデル(LLM)におけるステレオタイプを測定するプロンプトベースの手法であるMarked Personasを提案する。
GPT-3.5 と GPT-4 が生成する描写は、同じプロンプトを用いた人間による描写よりも、人種的ステレオタイプの割合が高いことが判明した。
交叉レンズは、トロピズムやマイノリティ化された女性のセクシュアル化など、疎遠化されたグループの描写を支配しているトロープを露呈する。
論文 参考訳(メタデータ) (2023-05-29T16:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。