論文の概要: Gender and Race Bias in Consumer Product Recommendations by Large Language Models
- arxiv url: http://arxiv.org/abs/2602.08124v1
- Date: Sun, 08 Feb 2026 21:06:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.99083
- Title: Gender and Race Bias in Consumer Product Recommendations by Large Language Models
- Title(参考訳): 大規模言語モデルによる消費者製品レコメンデーションにおけるジェンダーとレースバイアス
- Authors: Ke Xu, Shera Potka, Alex Thomo,
- Abstract要約: 我々は,様々な人種・性別グループを対象とした大規模言語モデルから製品提案を引き出すために,プロンプトエンジニアリングを活用する。
以上の結果から,より公平なLLMレコメンデーションシステムの必要性が指摘され,人口集団のレコメンデーションに有意な差異が認められた。
- 参考スコア(独自算出の注目度): 9.335368499316576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models are increasingly employed in generating consumer product recommendations, yet their potential for embedding and amplifying gender and race biases remains underexplored. This paper serves as one of the first attempts to examine these biases within LLM-generated recommendations. We leverage prompt engineering to elicit product suggestions from LLMs for various race and gender groups and employ three analytical methods-Marked Words, Support Vector Machines, and Jensen-Shannon Divergence-to identify and quantify biases. Our findings reveal significant disparities in the recommendations for demographic groups, underscoring the need for more equitable LLM recommendation systems.
- Abstract(参考訳): 大規模言語モデルは、消費者製品レコメンデーションの生成にますます採用されているが、ジェンダーや人種の偏見を埋め込んで増幅する可能性はまだ検討されていない。
本稿は,LSM生成レコメンデーション内でこれらのバイアスを調査するための最初の試みの1つとして機能する。
我々は,様々な人種・性別グループを対象としたLCMから製品提案を抽出し,3つの分析手法であるマーク付き単語,サポートベクトルマシン,Jensen-Shannon Divergence を用いてバイアスを特定し定量化する。
以上の結果から,より公平なLLMレコメンデーションシステムの必要性が指摘され,人口集団のレコメンデーションに有意な差異が認められた。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Whose Journey Matters? Investigating Identity Biases in Large Language Models (LLMs) for Travel Planning Assistance [6.321662057187393]
本研究では,大規模言語モデル(LLM)による旅行推薦における民族的・ジェンダー的偏見について検討する。
その結果,人種別と性別別の両方の検定精度がランダムな確率を超えていることが示唆された。
本研究は,AIによる旅行計画支援の傾向と信頼性を向上させるため,バイアス軽減戦略の必要性を明らかにするものである。
論文 参考訳(メタデータ) (2024-10-22T18:08:25Z) - Unveiling and Mitigating Bias in Large Language Model Recommendations: A Path to Fairness [3.5297361401370044]
本研究では,LLMに基づくレコメンデーションシステムとバイアスの相互作用について検討する。
音楽、歌、書籍のレコメンデーションなど、様々な民族や文化グループに重点を置いている。
我々の発見によると、これらのシステムのバイアスは深く根深いが、迅速なエンジニアリングのような単純な介入さえも、それを大幅に減らすことができる。
論文 参考訳(メタデータ) (2024-09-17T01:37:57Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - A Survey on Human Preference Learning for Large Language Models [81.41868485811625]
近年の多目的大言語モデル(LLM)の急激な増加は、より有能な基礎モデルと人間の意図を優先学習によって整合させることに大きく依存している。
本調査では、選好フィードバックのソースとフォーマット、選好信号のモデリングと使用、および、整列 LLM の評価について述べる。
論文 参考訳(メタデータ) (2024-06-17T03:52:51Z) - Deep Bayesian Active Learning for Preference Modeling in Large Language Models [84.817400962262]
本稿では,BAL-PM(Bayesian Active Learner for Preference Modeling)を提案する。
BAL-PMは2つの人気のある人間の嗜好データセットにおいて、好みラベルを33%から68%少なくし、以前のベイズ買収ポリシーを超えている。
我々の実験では、BAL-PMは2つの人気のある人選好データセットにおいて33%から68%の選好ラベルを必要としており、ベイズ買収ポリシーを上回ります。
論文 参考訳(メタデータ) (2024-06-14T13:32:43Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - The Unequal Opportunities of Large Language Models: Revealing
Demographic Bias through Job Recommendations [5.898806397015801]
大規模言語モデル(LLM)における人口統計バイアスの分析と比較のための簡易な手法を提案する。
本稿では,ChatGPTとLLaMAの交差バイアスを計測し,本手法の有効性を示す。
両モデルとも、メキシコ労働者の低賃金雇用を一貫して示唆するなど、さまざまな人口統計学的アイデンティティに対する偏見を識別する。
論文 参考訳(メタデータ) (2023-08-03T21:12:54Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。