論文の概要: Investigating and Mitigating Stereotype-aware Unfairness in LLM-based Recommendations
- arxiv url: http://arxiv.org/abs/2504.04199v2
- Date: Tue, 29 Apr 2025 07:13:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.402838
- Title: Investigating and Mitigating Stereotype-aware Unfairness in LLM-based Recommendations
- Title(参考訳): LLMレコメンデーションにおけるステレオタイプ認識の不公平性の調査と緩和
- Authors: Zihuai Zhao, Wenqi Fan, Yao Wu, Qing Li,
- Abstract要約: 大きな言語モデル(LLM)は、前例のない言語理解と推論能力を示している。
近年の研究では、LLMが単語埋め込みにユビキタスに埋め込まれたステレオタイプを継承する可能性が示されている。
本研究は, LLM-RSにおけるステレオタイプに対する識別を定量化するために, ユーザとアイテムの両方を含むステレオタイプグループ間のフェアネスの新たな変種を明らかにした。
- 参考スコア(独自算出の注目度): 18.862841015556995
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated unprecedented language understanding and reasoning capabilities to capture diverse user preferences and advance personalized recommendations. Despite the growing interest in LLM-based recommendations, unique challenges are brought to the trustworthiness of LLM-based recommender systems (LLM-RS). Compared to unique user/item representations in conventional recommender systems, users and items share the textual representation (e.g., word embeddings) in LLM-based recommendations. Recent studies have revealed that LLMs are likely to inherit stereotypes that are embedded ubiquitously in word embeddings, due to their training on large-scale uncurated datasets. This leads to LLM-RS exhibiting stereotypical linguistic associations between users and items, causing a form of two-sided (i.e., user-to-item) recommendation fairness. However, there remains a lack of studies investigating the unfairness of LLM-RS due to intrinsic stereotypes, which can simultaneously involve user and item groups. To bridge this gap, this study reveals a new variant of fairness between stereotype groups containing both users and items, to quantify discrimination against stereotypes in LLM-RS. Moreover, in this paper, to mitigate stereotype-aware unfairness in textual user and item representations, we propose a novel framework named Mixture-of-Stereotypes (MoS). In particular, an insightful stereotype-wise routing strategy over multiple stereotype-relevant experts is designed, aiming to learn unbiased representations against different stereotypes in LLM-RS. Extensive experiments are conducted to analyze the influence of stereotype-aware fairness in LLM-RS and the effectiveness of our proposed methods, which consistently outperform competitive benchmarks under various fairness settings.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々なユーザの好みを捉え、パーソナライズされたレコメンデーションを前進させる、前例のない言語理解と推論能力を示している。
LLMベースのレコメンデーションへの関心が高まっているにもかかわらず、LLM-RS(LLM-RS)の信頼性に固有の課題が持ち込まれている。
従来のレコメンデーションシステムにおけるユニークなユーザ/イテム表現と比較して、ユーザとアイテムはLLMベースのレコメンデーションでテキスト表現(例:単語埋め込み)を共有する。
近年の研究では、LLMが単語埋め込みにユビキタスに埋め込まれたステレオタイプを継承する可能性が示唆されている。
この結果、LSM-RSは、ユーザとアイテム間のステレオタイプ的言語的関連を示すようになり、二面的(すなわち、ユーザ対イテム)の推奨フェアネスが生じる。
しかし、ユーザグループとアイテムグループを同時に含む固有のステレオタイプによるLSM-RSの不公平性についての研究は、まだ残っていない。
このギャップを埋めるために, LLM-RSにおけるステレオタイプに対する識別を定量化するために, ユーザとアイテムの両方を含むステレオタイプグループ間の公平性の新たな変種を明らかにする。
さらに,テキストユーザや項目表現におけるステレオタイプ認識の不公平性を緩和するために,Mixture-of-Stereotypes (MoS) という新しいフレームワークを提案する。
特に,複数のステレオタイプ関連専門家に対する洞察に富んだステレオタイプワイドルーティング戦略を設計し,LSM-RSの異なるステレオタイプに対する非バイアス表現を学習することを目的とした。
LLM-RSにおけるステレオタイプ認識フェアネスの影響と,様々なフェアネス設定下での競合ベンチマークを一貫して上回る提案手法の有効性について検討した。
関連論文リスト
- Evaluating how LLM annotations represent diverse views on contentious topics [3.405231040967506]
本稿では,多言語多言語モデル (LLM) が競合的なラベリングタスクに対する多様な視点を表現していることを示す。
以上の結果から, LLM を用いてデータアノテートを行う場合, 特定のグループの視点を低く表現することは, 重大な問題ではないことが示唆された。
論文 参考訳(メタデータ) (2025-03-29T22:53:15Z) - Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models [50.16340812031201]
我々は,大規模言語モデル (LLM) がベイジアンフレームワークから期待されているように,その信念を更新しないことを示す。
我々は、最適ベイズモデルの予測を模倣するように訓練することで、ベイズ的な推論をLLMに教える。
論文 参考訳(メタデータ) (2025-03-21T20:13:04Z) - Diverging Preferences: When do Annotators Disagree and do Models Know? [92.24651142187989]
我々は,4つのハイレベルクラスにまたがる10のカテゴリにまたがる相違点の分類法を開発した。
意見の相違の大部分は、標準的な報酬モデリングアプローチに反対している。
本研究は,選好の変化を識別し,評価とトレーニングへの影響を緩和する手法を開発する。
論文 参考訳(メタデータ) (2024-10-18T17:32:22Z) - Justice or Prejudice? Quantifying Biases in LLM-as-a-Judge [84.34545223897578]
多くの領域で優れているにもかかわらず、潜在的な問題は未解決のままであり、その信頼性と実用性の範囲を損なう。
提案手法は, LLM-as-a-Judgeにおける各種類のバイアスを定量化し, 解析する自動バイアス定量化フレームワークである。
当社の作業は、これらの問題に対処するステークホルダの必要性を強調し、LLM-as-a-Judgeアプリケーションで注意を喚起します。
論文 参考訳(メタデータ) (2024-10-03T17:53:30Z) - Social Debiasing for Fair Multi-modal LLMs [55.8071045346024]
MLLM(Multi-modal Large Language Models)は、強力な視覚言語理解機能を提供する。
しかしながら、これらのモデルはトレーニングデータセットから深刻な社会的偏見を継承することが多く、人種や性別といった属性に基づいた不公平な予測につながります。
本稿では,MLLMにおける社会的バイアスの問題に対処する。i)多元的社会的概念(CMSC)を用いた包括的対実的データセットの導入,i)アンチステレオタイプデバイアス戦略(ASD)を提案する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - Fairness in Large Language Models in Three Hours [2.443957114877221]
このチュートリアルは、大規模言語モデルに関する文献の最近の進歩を体系的に概説する。
LLMにおける公平性の概念を考察し、バイアスを評価するための戦略と公正性を促進するために設計されたアルゴリズムを要約する。
論文 参考訳(メタデータ) (2024-08-02T03:44:14Z) - How Are LLMs Mitigating Stereotyping Harms? Learning from Search Engine Studies [0.0]
商業モデル開発は、社会的影響評価を犠牲にして、法的負債に関する「安全」の訓練に重点を置いている。
これは、数年前に検索エンジンのオートコンプリートを観測できる同様の傾向を模倣している。
LLMにおけるステレオタイピングを評価するために,オートコンプリート方式の新たな評価課題を提案する。
論文 参考訳(メタデータ) (2024-07-16T14:04:35Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z) - A Normative Framework for Benchmarking Consumer Fairness in Large Language Model Recommender System [9.470545149911072]
本稿では,LCMを利用したリコメンデータシステムにおいて,消費者の公正性をベンチマークするための規範的フレームワークを提案する。
このギャップは公平性に関する任意の結論につながる可能性があると我々は主張する。
MovieLensデータセットの消費者の公正性に関する実験は、年齢ベースの推奨において公平さの偏りを明らかにしている。
論文 参考訳(メタデータ) (2024-05-03T16:25:27Z) - Fairness in Large Language Models: A Taxonomic Survey [2.669847575321326]
大規模言語モデル(LLM)は、様々な領域で顕著な成功を収めている。
多くの実世界のアプリケーションで有望な性能を示したにもかかわらず、これらのアルゴリズムのほとんどは公平さを考慮に入れていない。
論文 参考訳(メタデータ) (2024-03-31T22:22:53Z) - Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - A Group Fairness Lens for Large Language Models [34.0579082699443]
大規模な言語モデルは、ソーシャルメディアの文脈に展開する際の偏見と不公平さを永久に防ぐことができる。
多様な社会集団を特徴付ける新しい階層型スキーマを用いて,グループフェアネスレンズからLLMバイアスを評価する。
我々は,グループフェアネスの観点からLLMのバイアスを軽減するために,GF-Thinkという新しいチェーン・オブ・シンク法を考案した。
論文 参考訳(メタデータ) (2023-12-24T13:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。