論文の概要: Towards Fair Large Language Model-based Recommender Systems without Costly Retraining
- arxiv url: http://arxiv.org/abs/2601.17492v1
- Date: Sat, 24 Jan 2026 15:40:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.814141
- Title: Towards Fair Large Language Model-based Recommender Systems without Costly Retraining
- Title(参考訳): コスト削減を伴わない公平な大規模言語モデルベースレコメンダシステムを目指して
- Authors: Jin Li, Huilin Gu, Shoujin Wang, Qi Zhang, Shui Yu, Chen Wang, Xiwei Xu, Fang Chen,
- Abstract要約: LLM(Large Language Models)は、先進的な生成ユーザモデリングを通じてRecommender Systems(RS)に革命をもたらした。
LLMベースのRS(LLM-RS)は、トレーニングデータに存在するバイアスを必然的に持続させ、深刻な公平性問題を引き起こす。
本稿では,2段階の効率的な機械学習タスクとして,デバイアス問題を改善するためのFUDLRを提案する。
- 参考スコア(独自算出の注目度): 30.698816217416862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have revolutionized Recommender Systems (RS) through advanced generative user modeling. However, LLM-based RS (LLM-RS) often inadvertently perpetuates bias present in the training data, leading to severe fairness issues. Addressing these fairness problems in LLM-RS faces two significant challenges. 1) Existing debiasing methods, designed for specific bias types, lack the generality to handle diverse or emerging biases in real-world applications. 2) Debiasing methods relying on retraining are computationally infeasible given the massive parameter scale of LLMs. To overcome these challenges, we propose FUDLR (Fast Unified Debiasing for LLM-RS). The core idea is to reformulate the debiasing problem as an efficient machine unlearning task with two stages. First, FUDLR identifies bias-inducing samples to unlearn through a novel bias-agnostic mask, optimized to balance fairness improvement with accuracy preservation. Its bias-agnostic design allows adaptability to various or co-existing biases simply by incorporating different fairness metrics. Second, FUDLR performs efficient debiasing by estimating and removing the influence of identified samples on model parameters. Extensive experiments demonstrate that FUDLR effectively and efficiently improves fairness while preserving recommendation accuracy, offering a practical path toward socially responsible LLM-RS. The code and data are available at https://github.com/JinLi-i/FUDLR.
- Abstract(参考訳): LLM(Large Language Models)は、先進的な生成ユーザモデリングを通じてRecommender Systems(RS)に革命をもたらした。
しかし、LLMベースのRS(LLM-RS)は、トレーニングデータに存在するバイアスを必然的に持続させ、深刻な公平性の問題を引き起こす。
LLM-RSにおけるこれらの公平性問題に対処するには2つの大きな課題がある。
1) 特定のバイアスタイプ用に設計された既存のデバイアス手法は、現実世界のアプリケーションにおいて、多様なバイアスや出現するバイアスを扱う一般性に欠ける。
2) LLMの大規模パラメータスケールを考えると, 再学習に依存したデバイアス化は計算不可能である。
これらの課題を克服するために,我々はFUDLR (Fast Unified Debiasing for LLM-RS)を提案する。
中心となる考え方は、デバイアス問題を2段階の効率的な機械学習タスクとして再構築することである。
第一に、FUDLRはバイアス誘発サンプルを新しいバイアス非依存マスクを通じて未学習に特定し、公正さの改善と精度の保存のバランスに最適化する。
そのバイアスに依存しない設計は、異なる公正度メトリクスを組み込むことで、様々な、または共存するバイアスへの適応性を可能にする。
第2に、FUDLRはモデルパラメータに対する特定サンプルの影響を推定・除去することで、効率的なデバイアス処理を行う。
広汎な実験により、FUDLRは推奨精度を維持しながら公平性を効果的かつ効率的に向上し、社会的に責任を負うLLM-RSへの実践的な道筋を提供することが示された。
コードとデータはhttps://github.com/JinLi-i/FUDLRで公開されている。
関連論文リスト
- Attention Pruning: Automated Fairness Repair of Language Models via Surrogate Simulated Annealing [14.432850893209817]
本稿では,大規模言語モデル (LLM) におけるアテンションヘッドに対するアテンション・プルーニング(Attention Pruning) を提案する。
我々の実験は、注意喚起によって最大40%の性別バイアスが減少し、最先端のバイアス緩和戦略よりも優れることを示した。
論文 参考訳(メタデータ) (2025-03-20T03:02:32Z) - Preference Leakage: A Contamination Problem in LLM-as-a-judge [69.96778498636071]
審査員としてのLLM(Large Language Models)とLLMに基づくデータ合成は、2つの基本的なLLM駆動型データアノテーション法として登場した。
本研究では, 合成データ生成器とLCMに基づく評価器の関連性に起因するLCM-as-a-judgeの汚染問題である選好リークを明らかにする。
論文 参考訳(メタデータ) (2025-02-03T17:13:03Z) - Social Debiasing for Fair Multi-modal LLMs [59.61512883471714]
MLLM(Multi-modal Large Language Models)は、研究分野を劇的に進歩させ、強力な視覚言語理解機能を提供する。
これらのモデルは、しばしば訓練データから根深い社会的偏見を継承し、人種や性別などの属性に対する不快な反応をもたらす。
本稿では,MLLMにおける社会的バイアスの問題を,複数の社会的概念を持つ包括的対実的データセットを導入することで解決する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - ChatGPT Based Data Augmentation for Improved Parameter-Efficient Debiasing of LLMs [65.9625653425636]
大型言語モデル(LLM)は有害な社会的バイアスを示す。
そこで本研究では,ChatGPTを用いて合成学習データを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T01:28:48Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Self-Supervised Position Debiasing for Large Language Models [39.261233221850155]
大規模言語モデル(LLM)における位置バイアスを軽減するための自己教師型位置偏差検出(SOD)フレームワークを提案する。
8つのデータセットと5つのタスクの実験により、SODは3つのタイプの位置バイアスを緩和する既存の手法より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2024-01-02T14:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。