論文の概要: Improving Recommendation Fairness without Sensitive Attributes Using Multi-Persona LLMs
- arxiv url: http://arxiv.org/abs/2505.19473v1
- Date: Mon, 26 May 2025 03:52:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.14759
- Title: Improving Recommendation Fairness without Sensitive Attributes Using Multi-Persona LLMs
- Title(参考訳): マルチペソナLCMによる感性属性のない勧告フェアネスの向上
- Authors: Haoran Xin, Ying Sun, Chao Wang, Yanke Yu, Weijia Zhang, Hui Xiong,
- Abstract要約: センシティブな属性にアクセスすることなく、リコメンデーションフェアネスを改善することを目指している。
LLMFOSA(Out Sensitive Attributes)を用いたフェアレコメンデーションのための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.381646091763272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the success of recommender systems in alleviating information overload, fairness issues have raised concerns in recent years, potentially leading to unequal treatment for certain user groups. While efforts have been made to improve recommendation fairness, they often assume that users' sensitive attributes are available during model training. However, collecting sensitive information can be difficult, especially on platforms that involve no personal information disclosure. Therefore, we aim to improve recommendation fairness without any access to sensitive attributes. However, this is a non-trivial task because uncovering latent sensitive patterns from complicated user behaviors without explicit sensitive attributes can be difficult. Consequently, suboptimal estimates of sensitive distributions can hinder the fairness training process. To address these challenges, leveraging the remarkable reasoning abilities of Large Language Models (LLMs), we propose a novel LLM-enhanced framework for Fair recommendation withOut Sensitive Attributes (LLMFOSA). A Multi-Persona Sensitive Information Inference module employs LLMs with distinct personas that mimic diverse human perceptions to infer and distill sensitive information. Furthermore, a Confusion-Aware Sensitive Representation Learning module incorporates inference results and rationales to develop robust sensitive representations, considering the mislabeling confusion and collective consensus among agents. The model is then optimized by a formulated mutual information objective. Extensive experiments on two public datasets validate the effectiveness of LLMFOSA in improving fairness.
- Abstract(参考訳): 情報過負荷を軽減するためのレコメンデーターシステムの成功にもかかわらず、フェアネス問題は近年懸念を呼び、特定のユーザーグループに対する不平等な扱いにつながる可能性がある。
レコメンデーションの公平性を改善する努力がなされているが、モデルのトレーニング中にユーザーの敏感な属性が利用できると仮定することが多い。
しかし、特に個人情報開示を伴わないプラットフォームでは、機密情報の収集は困難である。
そこで我々は,機密属性へのアクセスを必要とせずに,リコメンデーションフェアネスを改善することを目的としている。
しかし、明示的なセンシティブな属性を伴わない複雑なユーザ行動から潜伏したセンシティブなパターンを明らかにすることは難しいため、これは簡単な作業である。
したがって、感度分布の最適下推定は、公平性トレーニングプロセスを妨げる可能性がある。
これらの課題に対処するため,LLM(Large Language Models)の顕著な推論能力を活用し,LLMFOSA(Out Sensitive Attributes)によるフェアレコメンデーションのための新しいLLM拡張フレームワークを提案する。
マルチパーソナ・インフォメーション・インフォメーション・インフォメーション・モジュールは、様々な人間の知覚を模倣して機密情報を推測し、蒸留する、異なるペルソナを持つLCMを用いている。
さらに、コンフュージョン・アウェア・センシティブ・リ表現学習モジュールは、エージェント間の誤解や集団的コンセンサスを考慮して、推論結果と合理性を組み込んで、堅牢なセンシティブな表現を開発する。
その後、モデルは定式化された相互情報目的によって最適化される。
2つの公開データセットに対する大規模な実験は、公平性を改善する上でのLLMFOSAの有効性を検証する。
関連論文リスト
- Fairness-Aware Low-Rank Adaptation Under Demographic Privacy Constraints [4.647881572951815]
事前訓練された基礎モデルはローランド適応(LoRA)を用いて特定のタスクに適応することができる
既存のフェアネスを意識した微調整手法は、機密属性や予測器への直接アクセスに依存している。
分散方式でトレーニング可能なLoRAベースの微調整手法のセットを紹介する。
論文 参考訳(メタデータ) (2025-03-07T18:49:57Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Fair Recommendations with Limited Sensitive Attributes: A Distributionally Robust Optimization Approach [46.61096160935783]
本稿では,推薦システムにおける公平性を確保するために,分散ロバスト公正最適化(DRFO)を提案する。
DRFOは、欠落した機密属性の潜在的な確率分布に対する最悪の不公平性を最小化する。
我々は,提案手法が推薦システムの公平性を効果的に確保できることを示す理論的,実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-05-02T07:40:51Z) - CFaiRLLM: Consumer Fairness Evaluation in Large-Language Model Recommender System [16.84754752395103]
本研究は,Large Language Model (LLM) ベースのレコメンデータシステムにおける公平性評価に関する過去の研究に批判的な立場を取る。
CFaiRLLMは、真の嗜好アライメントを組み込むだけでなく、交叉フェアネスを厳格に検証する拡張評価フレームワークである。
CFaiRLLMの有効性を検証するため,MovieLensとLastFMを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-03-08T20:44:59Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。