論文の概要: Revealing Potential Biases in LLM-Based Recommender Systems in the Cold Start Setting
- arxiv url: http://arxiv.org/abs/2508.20401v1
- Date: Thu, 28 Aug 2025 03:57:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.981925
- Title: Revealing Potential Biases in LLM-Based Recommender Systems in the Cold Start Setting
- Title(参考訳): コールドスタートにおけるLCMベースのリコメンダシステムにおけるリベリングポテンシャルバイアス
- Authors: Alexandre Andre, Gauthier Roy, Eva Dyer, Kai Wang,
- Abstract要約: 大きな言語モデル(LLM)は、汎用的な機能のため、リコメンデーションタスクにますます使われています。
ゼロコンテキストレコメンデーションにおける公平性を評価するために特別に設計されたベンチマークを導入する。
私たちのモジュールパイプラインはレコメンデーションドメインとセンシティブな属性をサポートします。
- 参考スコア(独自算出の注目度): 41.964130989754516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly used for recommendation tasks due to their general-purpose capabilities. While LLMs perform well in rich-context settings, their behavior in cold-start scenarios, where only limited signals such as age, gender, or language are available, raises fairness concerns because they may rely on societal biases encoded during pretraining. We introduce a benchmark specifically designed to evaluate fairness in zero-context recommendation. Our modular pipeline supports configurable recommendation domains and sensitive attributes, enabling systematic and flexible audits of any open-source LLM. Through evaluations of state-of-the-art models (Gemma 3 and Llama 3.2), we uncover consistent biases across recommendation domains (music, movies, and colleges) including gendered and cultural stereotypes. We also reveal a non-linear relationship between model size and fairness, highlighting the need for nuanced analysis.
- Abstract(参考訳): 大きな言語モデル(LLM)は、汎用的な機能のため、リコメンデーションタスクにますます使われています。
LLMはリッチコンテキスト環境では良好に機能するが、年齢、性別、言語などの限られた信号しか利用できないコールドスタートシナリオでは、事前トレーニング中に符号化された社会的バイアスに依存する可能性があるため、公平な懸念が生じる。
ゼロコンテキストレコメンデーションにおける公平性を評価するために特別に設計されたベンチマークを導入する。
私たちのモジュールパイプラインは設定可能なレコメンデーションドメインとセンシティブな属性をサポートします。
最新技術モデル(Gemma 3 と Llama 3.2)の評価を通じて、ジェンダーや文化的ステレオタイプを含むレコメンデーションドメイン(音楽、映画、大学)間で一貫したバイアスを明らかにする。
また、モデルサイズと公平性の間には非線形な関係が見られ、ニュアンス解析の必要性も浮き彫りにしている。
関連論文リスト
- Evaluating Position Bias in Large Language Model Recommendations [3.430780143519032]
大規模言語モデル(LLM)は、リコメンデーションタスクのための汎用ツールとして、ますます研究されている。
LLMをベースとした推薦モデルは位置バイアスに悩まされ、その場合、プロンプト内の候補項目の順序がLLMの推薦に不均等に影響を及ぼす可能性がある。
本稿では,LLMレコメンデーションモデルにおける位置バイアスを軽減するための新たなプロンプト戦略であるRightingをIterative Selection経由で導入する。
論文 参考訳(メタデータ) (2025-08-04T03:30:26Z) - LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。