論文の概要: UFO: Unfair-to-Fair Evolving Mitigates Unfairness in LLM-based Recommender Systems via Self-Play Fine-tuning
- arxiv url: http://arxiv.org/abs/2511.18342v1
- Date: Sun, 23 Nov 2025 08:34:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.787365
- Title: UFO: Unfair-to-Fair Evolving Mitigates Unfairness in LLM-based Recommender Systems via Self-Play Fine-tuning
- Title(参考訳): UFO:LLMベースのレコメンダシステムにおける不公平を自己再生ファインタニングで軽減する
- Authors: Jiaming Zhang, Yuyuan Li, Xiaohua Feng, Zhifei Ren, Li Zhang, Chaochao Chen,
- Abstract要約: 我々は、不公平は、SFTだけでなく、事前訓練によっても生じ、そこでは、SFTの間に固有のバイアスがさらに増幅されることを見出した。
本研究では,不公平さ軽減を両プレーヤーゲームとして定式化した自己再生機構を用いた Unfair-to-Fair evOlving (UFO) フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.11137327050817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language model-based Recommender Systems (LRSs) have demonstrated superior recommendation performance by integrating pre-training with Supervised Fine-Tuning (SFT). However, this approach introduces item-side unfairness. Existing studies primarily attribute this issue to the absence of fairness constraints during SFT and attempt to mitigate unfairness via re-weighting and re-ranking methods. In this paper, we find that unfairness arises not only from SFT but also from pre-training, where inherent biases are further amplified during SFT. This finding underscores the failure of current methods to address the root causes of unfairness. Moreover, current methods struggle to preserve satisfactory recommendation performance. To tackle these issues, we propose an Unfair-to-Fair evOlving (UFO) framework using a self-play mechanism, formulating unfairness mitigation as a two-player game. UFO alternates between two player roles: the \textit{judger}, which identifies unfairness from both pre-training and SFT, and the \textit{corrector}, which adjusts the LRS to address identified unfairness while preserving recommendation performance. Iterative optimization between these roles enables UFO to completely resolve unfairness. Extensive experiments demonstrate that UFO effectively mitigates unfairness while improving recommendation performance.
- Abstract(参考訳): 大規模言語モデルに基づくRecommender Systems(LRS)は、事前トレーニングとSupervised Fine-Tuning(SFT)を統合することで、優れたレコメンデーション性能を示している。
しかし、このアプローチはアイテム側の不公平をもたらす。
既存の研究は、この問題を主に、SFTにおける公正性制約の欠如と、再重み付けと再格付け手法による不公平さの軽減に起因している。
本稿では,SFTにおける不公平さは,SFTにおける本質的なバイアスがさらに増幅される事前学習から生じることを明らかにする。
この発見は、不公平の根本原因に対処する現在の手法の失敗を浮き彫りにする。
さらに、現在の手法は、良好なレコメンデーション性能を維持するのに苦労している。
これらの課題に対処するために,不公平さ軽減を2人プレイゲームとして定式化した自己再生機構を用いた Unfair-to-Fair evOlving (UFO) フレームワークを提案する。
UFOは、事前訓練とSFTの両方から不公平を識別する \textit{judger} と、レコメンデーションパフォーマンスを保持しながら、特定不公平に対処する LRS を調整する \textit{corrector} の2つの役割を交互に行う。
これらの役割間の反復的な最適化により、UFOは不公平を完全に解決することができる。
大規模な実験では、UFOは推奨性能を改善しつつ、効果的に不公平を緩和することを示した。
関連論文リスト
- Why Multi-Interest Fairness Matters: Hypergraph Contrastive Multi-Interest Learning for Fair Conversational Recommender System [55.39026603611269]
公正な会話レコメンダシステム(HyFairCRS)のためのハイパーグラフコントラスト学習フレームワークを提案する。
HyFairCRSは対話型対話型レコメンダシステム(CRS)における多目的多様性フェアネスの促進を目指す
2つのCRSベースのデータセットの実験により、HyFairCRSは、不公平を効果的に軽減しつつ、新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2025-07-01T11:39:42Z) - The Other Side of the Coin: Exploring Fairness in Retrieval-Augmented Generation [73.16564415490113]
Retrieval-Augmented Generation (RAG)は、外部の知識ソースから関連文書を取得することにより、Large Language Models (LLM)を強化する。
本稿では,小規模LLMにおいてRAGが導入した公平性問題を軽減するために,FairFTとFairFilterの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-11T10:17:10Z) - Discriminative Finetuning of Generative Large Language Models without Reward Models and Human Preference Data [73.04828796123581]
Supervised Fine-tuning (SFT) は、事前訓練された大規模言語モデル (LLM) を整列するための重要なステップとなっている。
本稿では,SFTの改良版であるDFT(Driminative Fine-Tuning)を紹介する。
i) 入力された全ての可能な出力のうち、解答の判別可能性を明示的にモデル化することにより、微調整LDMの判別確率フレームワーク、(ii) この判別可能性を最適化するための効率的なアルゴリズム、(iii) DFTの有効性を実証する広範な実験を含む。
論文 参考訳(メタデータ) (2025-02-25T22:38:55Z) - Unbiased Collaborative Filtering with Fair Sampling [31.8123420283795]
評価バイアスは,トレーニング中の確率要因の影響から生じる。
本稿では,各ユーザと各アイテムが正と負の両方のインスタンスとして選択される確率が等しいことを保証したフェアサンプリング(FS)手法を提案する。
論文 参考訳(メタデータ) (2025-02-19T15:59:49Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。