論文の概要: Reconsidering Learning Objectives in Unbiased Recommendation: A
Distribution Shift Perspective
- arxiv url: http://arxiv.org/abs/2206.03851v2
- Date: Sun, 2 Jul 2023 16:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 16:08:14.172216
- Title: Reconsidering Learning Objectives in Unbiased Recommendation: A
Distribution Shift Perspective
- Title(参考訳): 不公平な勧告における学習目的の再考:分布シフトの視点から
- Authors: Teng Xiao, Zhengyu Chen, Suhang Wang
- Abstract要約: 偏りのないアルゴリズムをバイアスフィードバックから学習し、推奨する問題について検討する。
アンバイアスド・レコメンデーションの最近の研究は、様々な技術で最先端の技術を推し進めている。
本稿では,既存の非バイアス学習の目的がなぜ非バイアス学習の推奨に働くのかを理論的に理解する。
- 参考スコア(独自算出の注目度): 42.8003527009917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work studies the problem of learning unbiased algorithms from biased
feedback for recommendation. We address this problem from a novel distribution
shift perspective. Recent works in unbiased recommendation have advanced the
state-of-the-art with various techniques such as re-weighting, multi-task
learning, and meta-learning. Despite their empirical successes, most of them
lack theoretical guarantees, forming non-negligible gaps between theories and
recent algorithms. In this paper, we propose a theoretical understanding of why
existing unbiased learning objectives work for unbiased recommendation. We
establish a close connection between unbiased recommendation and distribution
shift, which shows that existing unbiased learning objectives implicitly align
biased training and unbiased test distributions. Built upon this connection, we
develop two generalization bounds for existing unbiased learning methods and
analyze their learning behavior. Besides, as a result of the distribution
shift, we further propose a principled framework, Adversarial Self-Training
(AST), for unbiased recommendation. Extensive experiments on real-world and
semi-synthetic datasets demonstrate the effectiveness of AST.
- Abstract(参考訳): この研究は、バイアスのないフィードバックからバイアスのないアルゴリズムを学習し、推奨する問題を研究する。
我々はこの問題を新しい分布シフトの観点から解決する。
アンバイアスド・レコメンデーションの最近の研究は、再重み付け、マルチタスク学習、メタラーニングといった様々な技術で最先端の技術の進歩を遂げている。
実証的な成功にもかかわらず、そのほとんどは理論的な保証がなく、理論と最近のアルゴリズムの間に非無視的なギャップを形成している。
本稿では,既存の非偏り学習目標がなぜ偏りのない推薦に働くのかを理論的に理解する。
既存の非偏り学習目標が偏りのあるトレーニングと偏りのないテスト分布を暗黙的に調整していることを示す,偏りのない推薦と分布シフトの密接な関係を確立する。
この接続に基づいて,既存の偏りのない学習手法に対する2つの一般化境界を開発し,学習行動の解析を行う。
また, 流通シフトの結果として, 非バイアスな推薦のために, 適応自己学習(AST)の原則的枠組みをさらに提案する。
実世界および半合成データセットに関する大規模な実験は、ASTの有効性を示す。
関連論文リスト
- Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Epsilon non-Greedy: A Bandit Approach for Unbiased Recommendation via
Uniform Data [3.2534959204741085]
近年の研究では、少量の偏りのないデータを収集することで、自己フィードバックループバイアスを軽減する試みが行われている。
本稿では,一様に収集された少量のデータを用いて,偏りのない推定器を学習するフレームワークを提案する。
我々は、リコメンデーションシステムにおける実世界の継続的トレーニングシナリオをシミュレートする、新しいオフラインシーケンシャルトレーニングスキーマを導入する。
論文 参考訳(メタデータ) (2023-10-07T15:31:15Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Off-Policy Imitation Learning from Observations [78.30794935265425]
観察からの学習(lfo)は、多くのアプリケーションが利用できる実用的な強化学習シナリオである。
オフポリシ最適化を原則的に実現するサンプル効率の高いLfOアプローチを提案する。
我々のアプローチは、サンプル効率と性能の両面で最先端のロコモーションに匹敵する。
論文 参考訳(メタデータ) (2021-02-25T21:33:47Z) - Towards Debiasing NLU Models from Unknown Biases [70.31427277842239]
NLUモデルは、しばしばバイアスを利用して、意図したタスクを適切に学習することなく、データセット固有の高いパフォーマンスを達成する。
本稿では、モデルがバイアスを事前に知ることなく、主にバイアスを利用するのを防ぐ自己バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-25T15:49:39Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。