論文の概要: Bypassing the Popularity Bias: Repurposing Models for Better Long-Tail Recommendation
- arxiv url: http://arxiv.org/abs/2410.02776v1
- Date: Tue, 17 Sep 2024 15:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 05:54:19.834557
- Title: Bypassing the Popularity Bias: Repurposing Models for Better Long-Tail Recommendation
- Title(参考訳): 人気バイアスをバイパスする:より優れたロングテール勧告のためのリパースモデル
- Authors: Václav Blahut, Karel Koupil,
- Abstract要約: 我々は,オンラインコンテンツプラットフォーム上で,パブリッシャー間でより公平な露出分布を実現することを目的としている。
そこで本稿では,産業推薦システムの既存コンポーネントを再利用して,表現不足の出版社に価値ある露出を提供する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems play a crucial role in shaping information we encounter online, whether on social media or when using content platforms, thereby influencing our beliefs, choices, and behaviours. Many recent works address the issue of fairness in recommender systems, typically focusing on topics like ensuring equal access to information and opportunities for all individual users or user groups, promoting diverse content to avoid filter bubbles and echo chambers, enhancing transparency and explainability, and adhering to ethical and sustainable practices. In this work, we aim to achieve a more equitable distribution of exposure among publishers on an online content platform, with a particular focus on those who produce high quality, long-tail content that may be unfairly disadvantaged. We propose a novel approach of repurposing existing components of an industrial recommender system to deliver valuable exposure to underrepresented publishers while maintaining high recommendation quality. To demonstrate the efficiency of our proposal, we conduct large-scale online AB experiments, report results indicating desired outcomes and share several insights from long-term application of the approach in the production setting.
- Abstract(参考訳): リコメンダシステムは、ソーシャルメディアであろうとコンテンツプラットフォームであろうと、オンライン上で遭遇する情報を形作る上で重要な役割を担います。
近年の多くの研究は、リコメンデータシステムにおける公正性の問題に対処しており、一般的には、情報への平等なアクセスを保証すること、全ユーザまたはユーザグループの機会を確保すること、フィルターバブルやエコーチャンバーを避けるために多様なコンテンツを促進すること、透明性と説明可能性を高めること、倫理的かつ持続可能なプラクティスに固執すること、といったトピックに焦点を当てている。
本研究では,オンラインコンテンツプラットフォーム上でのパブリッシャ間の露出の均等な分布を実現することを目的としており,特に不当に不公平である可能性のある高品質のロングテールコンテンツを制作する人たちに焦点を当てている。
産業レコメンデーションシステムの既存コンポーネントを再利用し,レコメンデーション品質を維持しつつ,未表示のパブリッシャーに価値ある露出を提供する手法を提案する。
提案手法の有効性を示すため,大規模オンラインAB実験を行い,望ましい結果を示す報告を行い,生産環境におけるアプローチの長期的適用からいくつかの知見を共有した。
関連論文リスト
- A Model-based Multi-Agent Personalized Short-Video Recommender System [19.03089585214444]
本稿では,RLをベースとした産業用ショートビデオレコメンデータランキングフレームワークを提案する。
提案フレームワークでは,サンプル選択バイアスを軽減するために,モデルに基づく学習アプローチを採用している。
提案手法は,当社の大規模ショートビデオ共有プラットフォームに導入されている。
論文 参考訳(メタデータ) (2024-05-03T04:34:36Z) - User Welfare Optimization in Recommender Systems with Competing Content Creators [65.25721571688369]
本研究では,コンテンツ制作者間での競争ゲーム環境下で,システム側ユーザ福祉の最適化を行う。
本稿では,推奨コンテンツの満足度に基づいて,各ユーザの重みの列を動的に計算する,プラットフォームのためのアルゴリズムソリューションを提案する。
これらの重みはレコメンデーションポリシーやポストレコメンデーション報酬を調整するメカニズムの設計に利用され、それによってクリエイターのコンテンツ制作戦略に影響を与える。
論文 参考訳(メタデータ) (2024-04-28T21:09:52Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - A Comprehensive Survey on Trustworthy Recommender Systems [32.523177842969915]
本稿では,信頼に値するレコメンダシステム (TRec) の概要について概説する。
それぞれの側面について、最近の技術についてまとめ、信頼性の高いレコメンデータシステムの実現を支援する研究の方向性について論じる。
論文 参考訳(メタデータ) (2022-09-21T04:34:17Z) - Two-Stage Neural Contextual Bandits for Personalised News Recommendation [50.3750507789989]
既存のパーソナライズされたニュースレコメンデーション手法は、ユーザの興味を搾取することに集中し、レコメンデーションにおける探索を無視する。
我々は、エクスプロイトと探索のトレードオフに対処する文脈的包括的レコメンデーション戦略に基づいて構築する。
我々はユーザとニュースにディープラーニング表現を使用し、ニューラルアッパー信頼境界(UCB)ポリシーを一般化し、加法的 UCB と双線形 UCB を一般化する。
論文 参考訳(メタデータ) (2022-06-26T12:07:56Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - A Graph-based Approach for Mitigating Multi-sided Exposure Bias in
Recommender Systems [7.3129791870997085]
FairMatchは、アイテムやサプライヤーの露出公正性を改善するグラフベースのアルゴリズムである。
2つのデータセットに関する包括的な実験と最先端のベースラインとの比較により、FairMatchは露出公正性と集約多様性を大幅に改善する一方で、レコメンデーションの許容レベルを維持している。
論文 参考訳(メタデータ) (2021-07-07T18:01:26Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。