論文の概要: Adversarial Counterfactual Learning and Evaluation for Recommender
System
- arxiv url: http://arxiv.org/abs/2012.02295v1
- Date: Sun, 8 Nov 2020 00:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 08:19:06.558436
- Title: Adversarial Counterfactual Learning and Evaluation for Recommender
System
- Title(参考訳): 敵対的反事実学習とレコメンデーションシステムの評価
- Authors: Da Xu, Chuanwei Ruan, Evren Korpeoglu, Sushant Kumar, Kannan Achan
- Abstract要約: ユーザ嗜好を検出するために教師付き学習を適用することは、露出情報がない場合に矛盾する結果になる可能性があることを理論的に示す。
ミニマックス経験的リスクの定式化を導入することにより, 基本解を提案する。
- 参考スコア(独自算出の注目度): 33.44276155380476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The feedback data of recommender systems are often subject to what was
exposed to the users; however, most learning and evaluation methods do not
account for the underlying exposure mechanism. We first show in theory that
applying supervised learning to detect user preferences may end up with
inconsistent results in the absence of exposure information. The counterfactual
propensity-weighting approach from causal inference can account for the
exposure mechanism; nevertheless, the partial-observation nature of the
feedback data can cause identifiability issues. We propose a principled
solution by introducing a minimax empirical risk formulation. We show that the
relaxation of the dual problem can be converted to an adversarial game between
two recommendation models, where the opponent of the candidate model
characterizes the underlying exposure mechanism. We provide learning bounds and
conduct extensive simulation studies to illustrate and justify the proposed
approach over a broad range of recommendation settings, which shed insights on
the various benefits of the proposed approach.
- Abstract(参考訳): 推薦システムのフィードバックデータは,ユーザに対して露出したものを対象とすることが多いが,ほとんどの学習・評価手法は,その基盤となる露出メカニズムを考慮していない。
まず,ユーザ嗜好を検出するために教師付き学習を適用すると,露出情報がない場合には一貫性のない結果が得られることを示す。
因果推論による反ファクト的確率重み付け手法は露出機構を考慮できるが、フィードバックデータの部分的観測特性は識別可能性の問題を引き起こす可能性がある。
ミニマックス経験的リスクの定式化を導入することにより, 基本解を提案する。
双対問題の緩和は、2つのレコメンデーションモデル間の敵対ゲームに変換可能であり、候補モデルの相手が基礎となる露出機構を特徴付ける。
学習境界を提供し,提案手法の様々な利点について考察し,提案手法を幅広い推奨設定で説明し,正当化するための広範囲なシミュレーション研究を行う。
関連論文リスト
- Be Aware of the Neighborhood Effect: Modeling Selection Bias under Interference [50.95521705711802]
従来の研究では、予測モデルの偏りのない学習を実現するために、選択バイアスに対処することに注力してきた。
本稿では、因果推論の観点から、近隣効果を干渉問題として公式に定式化する。
本稿では,近隣効果の存在下で選択バイアスに対処できる新しい理想的損失を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:20:41Z) - A General Offline Reinforcement Learning Framework for Interactive
Recommendation [43.47849328010646]
まず,対話型レコメンデーションのための確率的生成モデルを導入し,ログ化されたフィードバックに基づく離散的およびポリシー学習のための効果的な推論アルゴリズムを提案する。
提案手法が既存の教師付き学習法や強化学習法よりも優れた性能を期待できることを示す。
論文 参考訳(メタデータ) (2023-10-01T14:09:21Z) - Debiasing Recommendation by Learning Identifiable Latent Confounders [49.16119112336605]
コンバウンディングバイアスは、ユーザの露出とフィードバックの両方に影響を与える未測定変数の存在によって生じる。
既存の手法では,(1) 未測定変数について不確定な仮定を行うか,(2) 潜伏した共同創設者を直接ユーザの露出から推測する。
本稿では、上記の非識別問題の解決にプロキシ変数の集合を利用する新しい方法、すなわち、識別可能なデコノウ(iDCF)を提案する。
論文 参考訳(メタデータ) (2023-02-10T05:10:26Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z) - From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems [43.93801836660617]
本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
論文 参考訳(メタデータ) (2021-10-28T01:54:04Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。