論文の概要: Understanding Gender Bias in AI-Generated Product Descriptions
- arxiv url: http://arxiv.org/abs/2506.05390v1
- Date: Tue, 03 Jun 2025 18:14:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.119241
- Title: Understanding Gender Bias in AI-Generated Product Descriptions
- Title(参考訳): AI生成した製品記述におけるジェンダーバイアスの理解
- Authors: Markelle Kelly, Mohammad Tahaei, Padhraic Smyth, Lauren Wilcox,
- Abstract要約: 我々は、製品記述生成の文脈において、性別バイアスのデータ駆動型分類カテゴリーを開発する。
AI生成した製品記述が、特別な検出と緩和のアプローチを必要とする方法で、ジェンダーバイアスを一意に表面化する方法について説明する。
- 参考スコア(独自算出の注目度): 24.246331833109416
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While gender bias in large language models (LLMs) has been extensively studied in many domains, uses of LLMs in e-commerce remain largely unexamined and may reveal novel forms of algorithmic bias and harm. Our work investigates this space, developing data-driven taxonomic categories of gender bias in the context of product description generation, which we situate with respect to existing general purpose harms taxonomies. We illustrate how AI-generated product descriptions can uniquely surface gender biases in ways that require specialized detection and mitigation approaches. Further, we quantitatively analyze issues corresponding to our taxonomic categories in two models used for this task -- GPT-3.5 and an e-commerce-specific LLM -- demonstrating that these forms of bias commonly occur in practice. Our results illuminate unique, under-explored dimensions of gender bias, such as assumptions about clothing size, stereotypical bias in which features of a product are advertised, and differences in the use of persuasive language. These insights contribute to our understanding of three types of AI harms identified by current frameworks: exclusionary norms, stereotyping, and performance disparities, particularly for the context of e-commerce.
- Abstract(参考訳): 大規模言語モデル(LLM)におけるジェンダーバイアスは、多くの領域で広く研究されているが、電子商取引におけるLSMの使用はほとんど検討されていないままであり、アルゴリズムバイアスと害の新たな形態を示す可能性がある。
本研究は、この領域を考察し、製品記述生成の文脈において、データ駆動型性バイアスの分類学的カテゴリを開発する。
AI生成した製品記述が、特別な検出と緩和のアプローチを必要とする方法で、ジェンダーバイアスを一意に表面化する方法について説明する。
さらに,本課題に用いた2つのモデル(GPT-3.5とeコマース特有のLCM)において,我々の分類カテゴリーに対応する課題を定量的に分析し,これらのバイアスが実際に発生することを実証した。
以上の結果から, 衣服サイズ, 商品の特徴を宣伝するステレオタイプバイアス, 説得言語の使用法の違いなど, 性別バイアスの独特な, 未調査次元を明確化することができた。
これらの洞察は、排他的規範、ステレオタイピング、パフォーマンス格差、特にeコマースの文脈において、現在のフレームワークで特定される3つのタイプのAI害の理解に寄与します。
関連論文リスト
- The LLM Wears Prada: Analysing Gender Bias and Stereotypes through Online Shopping Data [8.26034886618475]
本研究では,オンラインショッピング履歴のみに基づいて,大規模言語モデルが個人の性別を予測できるかどうかを検討する。
米国ユーザーのオンライン購入履歴のデータセットを用いて、性別を分類する6つのLCMの能力を評価する。
結果は、モデルが適度な精度で性別を推測できる一方で、その決定は製品カテゴリーと性別のステレオタイプ的関連に根ざしていることを示している。
論文 参考訳(メタデータ) (2025-04-02T17:56:08Z) - Gender Encoding Patterns in Pretrained Language Model Representations [17.101242741559428]
プレトレーニング言語モデル(PLM)におけるジェンダーバイアスは、社会的および倫理的課題を生じさせる。
本研究では,ジェンダーバイアスがエンコーダベースのアーキテクチャでどのようにエンコードされているかを分析するための情報理論的アプローチを採用する。
論文 参考訳(メタデータ) (2025-03-09T19:17:46Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Hire Me or Not? Examining Language Model's Behavior with Occupation Attributes [7.718858707298602]
大規模言語モデル(LLM)は、採用やレコメンデーションシステムなど、プロダクションパイプラインに広く統合されている。
本稿では、職業意思決定の文脈において、ジェンダーステレオタイプに関するLCMの行動について検討する。
論文 参考訳(メタデータ) (2024-05-06T18:09:32Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。