論文の概要: Mitigating Recommendation Biases via Group-Alignment and Global-Uniformity in Representation Learning
- arxiv url: http://arxiv.org/abs/2511.13041v1
- Date: Mon, 17 Nov 2025 06:42:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.785537
- Title: Mitigating Recommendation Biases via Group-Alignment and Global-Uniformity in Representation Learning
- Title(参考訳): 表現学習におけるグループアライメントとグローバル不均一性による推薦バイアスの緩和
- Authors: Miaomiao Cai, Min Hou, Lei Chen, Le Wu, Haoyue Bai, Yong Li, Meng Wang,
- Abstract要約: 協調フィルタリング(CF)は現代のレコメンデータシステムにおいて重要な役割を担っている。
CFベースの手法は、トレーニングデータの不均衡によってしばしばバイアスに遭遇する。
本稿では,表現分布の観点からバイアスを緩和する枠組みを提案する。
- 参考スコア(独自算出の注目度): 31.00491858291777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative Filtering~(CF) plays a crucial role in modern recommender systems, leveraging historical user-item interactions to provide personalized suggestions. However, CF-based methods often encounter biases due to imbalances in training data. This phenomenon makes CF-based methods tend to prioritize recommending popular items and performing unsatisfactorily on inactive users. Existing works address this issue by rebalancing training samples, reranking recommendation results, or making the modeling process robust to the bias. Despite their effectiveness, these approaches can compromise accuracy or be sensitive to weighting strategies, making them challenging to train. In this paper, we deeply analyze the causes and effects of the biases and propose a framework to alleviate biases in recommendation from the perspective of representation distribution, namely Group-Alignment and Global-Uniformity Enhanced Representation Learning for Debiasing Recommendation (AURL). Specifically, we identify two significant problems in the representation distribution of users and items, namely group-discrepancy and global-collapse. These two problems directly lead to biases in the recommendation results. To this end, we propose two simple but effective regularizers in the representation space, respectively named group-alignment and global-uniformity. The goal of group-alignment is to bring the representation distribution of long-tail entities closer to that of popular entities, while global-uniformity aims to preserve the information of entities as much as possible by evenly distributing representations. Our method directly optimizes both the group-alignment and global-uniformity regularization terms to mitigate recommendation biases. Extensive experiments on three real datasets and various recommendation backbones verify the superiority of our proposed framework.
- Abstract(参考訳): 協調フィルタリング〜(CF)は現代のレコメンデーションシステムにおいて重要な役割を果たす。
しかし、CFベースの手法は、トレーニングデータの不均衡によってしばしばバイアスに遭遇する。
この現象により、CFベースの手法は、人気のあるアイテムを推奨し、不活性なユーザーに対して不満足に実行する傾向にある。
既存の作業では、トレーニングサンプルの再バランス、レコメンデーション結果の再評価、あるいはモデリングプロセスをバイアスに対して堅牢にすることで、この問題に対処しています。
有効性にもかかわらず、これらのアプローチは精度を損なったり、重み付け戦略に敏感になり、訓練を困難にします。
本稿では,バイアスの原因と影響を深く分析し,グループアライメントとグローバル・ユニフォーマル性向上型勧告学習(AURL)という表現分布の観点から,バイアスを緩和する枠組みを提案する。
具体的には、ユーザとアイテムの表現分布における2つの重要な問題、すなわち、グループ差分とグローバル崩壊を識別する。
これらの2つの問題は、リコメンデーション結果のバイアスを直接引き起こす。
この目的のために、表現空間において、それぞれグループアライメント(group-alignment)と大域一様性(global-uniformity)という2つの単純かつ効果的な正規化器を提案する。
グループアライメントの目的は、ロングテールエンティティの表現分布を人気エンティティの表現分布に近づけることであり、グローバル均一性は、表現を均等に分散することで、エンティティの情報を可能な限り保存することを目的としている。
提案手法は,グループアライメントとグローバル均一性正規化の両項を直接最適化し,推薦バイアスを緩和する。
3つの実データセットと様々なレコメンデーションバックボーンに関する大規模な実験は、提案フレームワークの優位性を検証する。
関連論文リスト
- Towards Reliable and Holistic Visual In-Context Learning Prompt Selection [82.23704441763651]
Visual In-Context Learning (VICL) は、視覚基礎モデルを新しいタスクに適用するための顕著なアプローチとして登場した。
部分2Global や VPR のような VICL の手法は、クエリ画像とより視覚的に類似したイメージが、より良いコンテキスト内例として機能するという類似性と優先度の仮定に基づいている。
本稿では、VICLにおけるテキスト内サンプルの信頼性と包括的選択のために、Partial2Globalの拡張版を提案する。
論文 参考訳(メタデータ) (2025-09-30T09:23:12Z) - Class-Conditional Distribution Balancing for Group Robust Classification [11.525201208566925]
間違った理由からモデルが正しい予測に導かれるような豪華な相関関係は、堅牢な現実世界の一般化にとって重要な課題である。
クラス-条件分布における不均衡やミスマッチとして、突発的な相関を緩和することで、新しい視点を提供する。
本稿では,バイアスアノテーションと予測の両方を必要としない,シンプルで効果的な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2025-04-24T07:15:53Z) - Curriculum-enhanced GroupDRO: Challenging the Norm of Avoiding Curriculum Learning in Subpopulation Shift Setups [2.719510212909501]
サブポピュレーションシフトのシナリオでは、Curriculum Learning (CL)アプローチはモデルの重み付けを早期にインプリントするだけであり、容易に学習可能なスプリアス相関を持つ。
本稿では,最も難しいバイアス確認サンプルと最も簡単なバイアス強調サンプルを優先する,CeGDRO(Curriculum-enhanced Group Distributionally Robust Optimization)アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-22T13:38:56Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - A-FedPD: Aligning Dual-Drift is All Federated Primal-Dual Learning Needs [57.35402286842029]
本稿では,グローバルクライアントとローカルクライアントの仮想二重配向を構成する新しいアラインドデュアルデュアル(A-FedPD)手法を提案する。
本稿では,A-FedPD方式の非集中型セキュリティコンセンサスに対する効率を包括的に分析する。
論文 参考訳(メタデータ) (2024-09-27T17:00:32Z) - Emulating Full Participation: An Effective and Fair Client Selection Strategy for Federated Learning [50.060154488277036]
連合学習では、クライアントの選択はモデルの性能と公平性の両方に大きな影響を及ぼす重要な問題である。
2つの指標間の固有の対立に対処し、互いに強化する2つの原則を提案する。
提案手法は,データ分布に基づいてクライアントを選択することにより,この多様性を適応的に向上させ,モデル性能と公平性の両方を改善する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Group Robust Classification Without Any Group Information [5.053622900542495]
この研究は、グループロバストネスに対する現在のバイアス非教師アプローチが、最適なパフォーマンスを達成するためにグループ情報に依存し続けていることを主張する。
バイアスラベルは依然として効果的なモデル選択に不可欠であり、現実のシナリオにおけるこれらの手法の実用性を制限する。
本稿では, 偏りのないモデルに対して, 完全にバイアスのない方法でトレーニングし, 妥当性を検証するための改訂手法を提案する。
論文 参考訳(メタデータ) (2023-10-28T01:29:18Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - ICPE: An Item Cluster-Wise Pareto-Efficient Framework for Recommendation Debiasing [7.100121083949393]
そこで本研究では,クラスタ単位の多目的最適化の観点から,推薦の偏りの中心的テーマについて検討する。
トレーニングプロセスで人気が異なるさまざまなアイテムクラスタ上での学習のバランスをとることを目的とした,モデルに依存しないフレームワークであるItem Cluster-Wiseを提案する。
より詳しくは、推奨モデルが人気が異なるすべてのアイテムクラスタのバランスをとるべきであるとして、アイテムクラスタの最適化ターゲットを定義します。
論文 参考訳(メタデータ) (2021-09-27T09:17:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。