論文の概要: Learning to Alleviate Familiarity Bias in Video Recommendation
- arxiv url: http://arxiv.org/abs/2602.07987v1
- Date: Sun, 08 Feb 2026 14:27:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.90674
- Title: Learning to Alleviate Familiarity Bias in Video Recommendation
- Title(参考訳): ビデオレコメンデーションにおける身近なバイアスを軽減するための学習
- Authors: Zheng Ren, Yi Wu, Jianan Lu, Acar Ary, Yiqu Liu, Li Wei, Lukasz Heldt,
- Abstract要約: LAFB(Learning to Alleviate Familiarity Bias)は,リコメンデーション出力における親しみやすさバイアスを軽減するためのフレームワークである。
我々は、実世界のレコメンデーションシステムにおいて、統合されたサービススタックの下で大規模なオフライン評価とオンラインA/Bテストを行う。
以上の結果から,LAFBは新たなウォッチタイムシェアを増大させ,新興クリエーターへの露出を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 7.287989983339302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern video recommendation systems aim to optimize user engagement and platform objectives, yet often face structural exposure imbalances caused by behavioral biases. In this work, we focus on the post-ranking stage and present LAFB (Learning to Alleviate Familiarity Bias), a lightweight and model-agnostic framework designed to mitigate familiarity bias in recommendation outputs. LAFB models user-content familiarity using discrete and continuous interaction features, and estimates personalized debiasing factors to adjust user rating prediction scores, thereby reducing the dominance of familiar content in the final ranking. We conduct large-scale offline evaluations and online A/B testing in a real-world recommendation system, under a unified serving stack that also compares LAFB with deployable popularity-oriented remedies. Results show that LAFB increases novel watch-time share and improves exposure for emerging creators and overall content diversity, while maintaining stable overall watch time and short-term satisfaction. LAFB has already been launched in the post-ranking stage of YouTube's recommendation system, demonstrating its effectiveness in real-world applications.
- Abstract(参考訳): 現代のビデオレコメンデーションシステムは、ユーザのエンゲージメントとプラットフォームの目的を最適化することを目的としている。
本稿では,推薦出力における親しみやすさのバイアスを軽減するために設計された軽量かつモデルに依存しないフレームワークであるLAFB(Learning to Alleviate Familiarity Bias)について述べる。
LAFBは、離散的かつ連続的なインタラクション機能を用いたユーザコンテンツ親しみ度をモデル化し、パーソナライズされた嫌悪要因を推定し、ユーザ評価予測スコアを調整し、最終ランキングにおける親しみのあるコンテンツの優位性を低下させる。
実世界のレコメンデーションシステムにおいて,大規模なオフライン評価とオンラインA/Bテストを行う。
以上の結果から,LAFBは新規なウォッチタイムシェアを増大させ,新規クリエーターの露出とコンテンツの多様性を向上するとともに,全体のウォッチタイムと短期満足度を安定的に維持することを示した。
LAFBはすでにYouTubeのレコメンデーションシステムの後段でローンチされており、実世界のアプリケーションでその効果を実証している。
関連論文リスト
- PBiLoss: Popularity-Aware Regularization to Improve Fairness in Graph-Based Recommender Systems [1.0128808054306186]
PBiLossは、グラフベースのレコメンデータモデルにおいて、人気バイアスを明示的に防止するために設計された正規化に基づく損失関数である。
PBiLoss は,PRU (Popularity-Rank correlation for Users) とPRI (Popularity-Rank correlation for Items) の削減によって,公正性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2025-07-25T08:29:32Z) - Finding Interest Needle in Popularity Haystack: Improving Retrieval by Modeling Item Exposure [8.3095709445007]
本稿では、アイテムの露出確率を明示的にモデル化し、推論時に検索ステージランキングを調整する、露出認識型検索スコアリング手法を提案する。
実世界のビデオレコメンデーションシステムにおけるオンラインA/B実験によるアプローチの有効性を検証し、一意に検索されたアイテムの25%増加と、過度な人気コンテンツの優位性の40%低下を実証した。
本研究は,検索段階で人気バイアスを緩和するためのスケーラブルでデプロイ可能なソリューションを構築し,バイアス認識のパーソナライゼーションのための新しいパラダイムを提供する。
論文 参考訳(メタデータ) (2025-03-31T00:04:01Z) - Supervised Learning-enhanced Multi-Group Actor Critic for Live Stream Allocation in Feed [14.545253604335823]
SL-MGAC(Supervised Learning-enhanced Multi-Group Actor Critic Algorithm)を提案する。
本稿では,分散低減手法を取り入れた教師付き学習支援型アクター批判フレームワークを提案する。
また,過度に欲求的なライブストリームアロケーションを防止するために,新たな報酬関数を提案する。
論文 参考訳(メタデータ) (2024-11-28T04:06:02Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Unbiased Pairwise Learning to Rank in Recommender Systems [4.058828240864671]
アルゴリズムをランク付けする偏見のない学習は、候補をアピールし、既に単一の分類ラベルを持つ多くのアプリケーションに適用されている。
本稿では,この課題に対処するための新しい非バイアス付きLTRアルゴリズムを提案する。
パブリックベンチマークデータセットと内部ライブトラフィックを用いた実験結果から,分類ラベルと連続ラベルのいずれにおいても提案手法の優れた結果が得られた。
論文 参考訳(メタデータ) (2021-11-25T06:04:59Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。