論文の概要: BiFair: A Fairness-aware Training Framework for LLM-enhanced Recommender Systems via Bi-level Optimization
- arxiv url: http://arxiv.org/abs/2507.04294v1
- Date: Sun, 06 Jul 2025 08:39:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.106126
- Title: BiFair: A Fairness-aware Training Framework for LLM-enhanced Recommender Systems via Bi-level Optimization
- Title(参考訳): BiFair: 双方向最適化によるLLM強化レコメンダシステムのためのフェアネス対応トレーニングフレームワーク
- Authors: Jiaming Zhang, Yuyuan Li, Yiqun Xu, Li Zhang, Xiaohua Feng, Zhifei Ren, Chaochao Chen,
- Abstract要約: BiFairは、事前トレーニングと不公平トレーニングの両方を同時に緩和するために設計された公正対応のトレーニングフレームワークである。
3つの実世界のデータセットに対する大規模な実験は、BiFairが不公平を著しく軽減し、従来の最先端の手法よりも優れていることを示している。
- 参考スコア(独自算出の注目度): 13.187285894531275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model-enhanced Recommender Systems (LLM-enhanced RSs) have emerged as a powerful approach to improving recommendation quality by leveraging LLMs to generate item representations. Despite these advancements, the integration of LLMs raises severe fairness concerns. Existing studies reveal that LLM-based RSs exhibit greater unfairness than traditional RSs, yet fairness issues in LLM-enhanced RSs remain largely unexplored. In this paper, our empirical study reveals that while LLM-enhanced RSs improve fairness across item groups, a significant fairness gap persists. Further enhancement remains challenging due to the architectural differences and varying sources of unfairness inherent in LLM-enhanced RSs. To bridge this gap, we first decompose unfairness into i) \textit{prior unfairness} in LLM-generated representations and ii) \textit{training unfairness} in recommendation models. Then, we propose BiFair, a bi-level optimization-based fairness-aware training framework designed to mitigate both prior and training unfairness simultaneously. BiFair optimizes two sets of learnable parameters: LLM-generated representations and a trainable projector in the recommendation model, using a two-level nested optimization process. Additionally, we introduce an adaptive inter-group balancing mechanism, leveraging multi-objective optimization principles to dynamically balance fairness across item groups. Extensive experiments on three real-world datasets demonstrate that BiFair significantly mitigates unfairness and outperforms previous state-of-the-art methods.
- Abstract(参考訳): 大規模言語モデル拡張レコメンダシステム (LLM強化RS) は, LLM を利用してアイテム表現を生成することで, 推薦品質を向上させるための強力なアプローチとして登場した。
これらの進歩にもかかわらず、LSMの統合は厳しい公平性への懸念を提起する。
既存の研究によると、LLMベースのRSは従来のRSよりも不公平であるが、LLMで強化されたRSの公平性問題は未解明のままである。
本稿では, LLMにより強化されたRSは項目群間の公平性を向上するが, 顕著な公平性ギャップは持続することを示す。
アーキテクチャ上の違いやLLM強化RSに固有の不公平さの源泉が多様であることから、さらなる強化は依然として困難である。
このギャップを埋めるために、私たちはまず不公平を分解する。
一 LLM 生成表現における \textit{prior fairness} 及び
二 推薦モデルにおけるtextit{training fairness}
次に,2段階の最適化に基づくフェアネス対応トレーニングフレームワークであるBiFairを提案する。
BiFairは2段階のネスト最適化プロセスを使用して、LLM生成表現とレコメンデーションモデルでトレーニング可能なプロジェクタの2つの学習可能なパラメータを最適化する。
さらに,多目的最適化の原則を活用し,項目群間の公平性を動的にバランスさせる適応的グループ間バランス機構を導入する。
3つの実世界のデータセットに対する大規模な実験は、BiFairが不公平を著しく軽減し、従来の最先端の手法よりも優れていることを示している。
関連論文リスト
- DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - Modality-Balancing Preference Optimization of Large Multimodal Models by Adversarial Negative Mining [66.54211199959298]
LMMにおけるモダリティの不均衡に対処するため、新しい選好学習フレームワークMBPOを提案する。
MBPOは、強い負の反応、すなわちLLMバイアスによって誤った反応を生成することによって、より効果的なオフライン嗜好データセットを構築する。
視覚言語課題におけるLMM性能を高め、幻覚を効果的に軽減することができる。
論文 参考訳(メタデータ) (2025-05-20T03:59:05Z) - The Other Side of the Coin: Exploring Fairness in Retrieval-Augmented Generation [73.16564415490113]
Retrieval-Augmented Generation (RAG)は、外部の知識ソースから関連文書を取得することにより、Large Language Models (LLM)を強化する。
本稿では,小規模LLMにおいてRAGが導入した公平性問題を軽減するために,FairFTとFairFilterの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-11T10:17:10Z) - Attention Pruning: Automated Fairness Repair of Language Models via Surrogate Simulated Annealing [14.114970711442512]
本稿では,大規模言語モデル (LLM) におけるアテンションヘッドに対するアテンション・プルーニング(Attention Pruning) を提案する。
我々の実験は、注意喚起によって最大40%の性別バイアスが減少し、最先端のバイアス緩和戦略よりも優れることを示した。
論文 参考訳(メタデータ) (2025-03-20T03:02:32Z) - A Little Help Goes a Long Way: Efficient LLM Training by Leveraging Small LMs [74.35290684163718]
大規模言語モデル(LLM)開発における最大の課題は、その面倒な事前トレーニングコストである。
本稿では,小言語モデル(SLM)を活用して,LLMの事前学習効率と品質を改善するための有望なパラダイムについて検討する。
論文 参考訳(メタデータ) (2024-10-24T14:31:52Z) - UP5: Unbiased Foundation Model for Fairness-aware Recommendation [45.47673627667594]
大規模言語モデルが必然的に社会的なステレオタイプを永続させ、不公平なレコメンデーションをもたらすのではないかという懸念が高まっている。
本稿は,性別や年齢などのセンシティブな特徴に公正であるように,レコメンデーションシステムを必要とする,LDMベースの推薦に対するユーザ側の公正性に焦点を当てる。
フェアネスを意識したLLMレコメンデーションのための新しいCFP法をUnbiased Foundation mOdels(UFO)に導入する。
論文 参考訳(メタデータ) (2023-05-20T04:32:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。