論文の概要: Bridging Semantic Understanding and Popularity Bias with LLMs
- arxiv url: http://arxiv.org/abs/2601.09478v3
- Date: Sun, 18 Jan 2026 10:01:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 14:05:45.102984
- Title: Bridging Semantic Understanding and Popularity Bias with LLMs
- Title(参考訳): LLMによる意味理解と人気バイアスのブリッジ
- Authors: Renqiang Luo, Dong Zhang, Yupeng Gao, Wen Shi, Mingliang Hou, Jiaying Liu, Zhe Wang, Shuo Yu,
- Abstract要約: 本稿では,Large Language Model (RecLLM) を用いたレコメンデーションにより,人気バイアスの意味的理解のギャップを埋める新しいフレームワークを提案する。
FairLRMは人気バイアスをアイテムサイドとユーザサイドのコンポーネントに分解する。
FairLRMはフェアネスとレコメンデーションの精度を大きく向上させる。
- 参考スコア(独自算出の注目度): 20.610143832734632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic understanding of popularity bias is a crucial yet underexplored challenge in recommender systems, where popular items are often favored at the expense of niche content. Most existing debiasing methods treat the semantic understanding of popularity bias as a matter of diversity enhancement or long-tail coverage, neglecting the deeper semantic layer that embodies the causal origins of the bias itself. Consequently, such shallow interpretations limit both their debiasing effectiveness and recommendation accuracy. In this paper, we propose FairLRM, a novel framework that bridges the gap in the semantic understanding of popularity bias with Recommendation via Large Language Model (RecLLM). FairLRM decomposes popularity bias into item-side and user-side components, using structured instruction-based prompts to enhance the model's comprehension of both global item distributions and individual user preferences. Unlike traditional methods that rely on surface-level features such as "diversity" or "debiasing", FairLRM improves the model's ability to semantically interpret and address the underlying bias. Through empirical evaluation, we show that FairLRM significantly enhances both fairness and recommendation accuracy, providing a more semantically aware and trustworthy approach to enhance the semantic understanding of popularity bias. The implementation is available at https://github.com/LuoRenqiang/FairLRM.
- Abstract(参考訳): 人気度バイアスに関するセマンティックな理解は、ニッチなコンテンツを犠牲にして人気アイテムが好まれるレコメンデーターシステムにおいて、不可欠だが過小評価されている課題である。
既存のデバイアス法の多くは、人気バイアスのセマンティックな理解を多様性の強化や長期的範囲の問題として扱い、バイアス自体の因果的起源を具現化した深いセマンティック・レイヤを無視している。
このような浅い解釈は、デバイアス効果とレコメンデーション精度の両方を制限している。
本稿では,Large Language Model (RecLLM)によるレコメンデーションによる人気バイアスの意味的理解のギャップを埋める新しいフレームワークであるFairLRMを提案する。
FairLRMは、人気バイアスをアイテムサイドとユーザサイドのコンポーネントに分解し、構造化された命令ベースのプロンプトを使用して、グローバルなアイテム分布と個人の好みの両方に対するモデルの理解を深める。
多様性(diversity)"や"デバイアス(debiasing)"のような表面的な機能に依存する従来の手法とは異なり、FairLRMはモデルが意味論的に解釈し、基盤となるバイアスに対処する能力を改善する。
経験的評価により、FairLRMは公正性とレコメンデーションの精度を著しく向上させ、人気バイアスのセマンティックな理解を高めるために、よりセマンティックに意識し、信頼できるアプローチを提供する。
実装はhttps://github.com/LuoRenqiang/FairLRMで公開されている。
関連論文リスト
- A Causal Information-Flow Framework for Unbiased Learning-to-Rank [52.54102347581931]
Web検索とレコメンデーションシステムでは、ユーザクリックがランキングモデルのトレーニングに広く使用されている。
本稿では,Unbiased Learning-to-Rankを拡張する因果学習に基づく新たなランキングフレームワークを提案する。
本手法は測定されたバイアスリークを一貫して低減し,ランキング性能を向上させる。
論文 参考訳(メタデータ) (2026-01-09T07:19:35Z) - Opening the Black Box: Interpretable Remedies for Popularity Bias in Recommender Systems [1.8692254863855962]
人気度バイアスは、少数の人気アイテムが不均等な注目を集めるレコメンデーションシステムにおいて、よく知られた課題である。
この不均衡は、しばしば推奨品質の低下とアイテムの不公平な露出をもたらす。
本稿では,Sparse Autoencoder を用いたポストホック手法を提案する。
論文 参考訳(メタデータ) (2025-08-24T10:59:56Z) - Towards Popularity-Aware Recommendation: A Multi-Behavior Enhanced Framework with Orthogonality Constraint [4.137753517504481]
Top-K$レコメンデーションは、潜伏したユーザの好みを推測し、パーソナライズされたレコメンデーションを生成する。
マルチビヘイビアのtextbfSide textbfInformation を統合した textbfPopularity-aware top-$K$レコメンデーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-26T11:06:49Z) - Towards Resource Efficient and Interpretable Bias Mitigation in Large Language Models [1.787433808079955]
大規模言語モデル (LLM) は、学習データにおいて望ましくないバイアスを持続させる。
本稿では,小さなバイアスとアンチバイアスのエキスパートモデルを利用してバイアスを緩和し,デバイアス信号を得る。
性別、人種、宗教の偏見を緩和する実験は、いくつかの地域および世界的な偏見指標に偏見を減少させる。
論文 参考訳(メタデータ) (2024-12-02T16:56:08Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Bilateral Self-unbiased Learning from Biased Implicit Feedback [10.690479112143658]
バイラテラル・セルフ・アンバイアスド・レコメンダ(BISER)という,新しいアンバイアスド・レコメンダラー・ラーニング・モデルを提案する。
BISERは、(i)自己逆確率重み付け(SIPW)と(ii)モデル予測における2つの相補的モデル間のギャップを埋める両側非バイアス学習(BU)の2つの重要な構成要素から構成される。
大規模な実験により、BISERは複数のデータセットに対して最先端の非バイアスのレコメンデータモデルより一貫して優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-26T05:17:42Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。