論文の概要: Invariant debiasing learning for recommendation via biased imputation
- arxiv url: http://arxiv.org/abs/2412.20036v2
- Date: Wed, 05 Feb 2025 09:38:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:23:37.590135
- Title: Invariant debiasing learning for recommendation via biased imputation
- Title(参考訳): バイアス計算による推薦のための不変脱バイアス学習
- Authors: Ting Bai, Weijie Chen, Cheng Yang, Chuan Shi,
- Abstract要約: 不変情報と変量情報の両方からユーザの偏りのない嗜好を自動的に学習する,新しい軽量知識蒸留フレームワーク(KDDebias)を提案する。
提案手法は,推薦システムにおけるSOTA非教師付きバイアスモデルと比較して,50%未満の学習パラメータで大幅な改善を実現する。
- 参考スコア(独自算出の注目度): 46.664978553651494
- License:
- Abstract: Previous debiasing studies utilize unbiased data to make supervision of model training. They suffer from the high trial risks and experimental costs to obtain unbiased data. Recent research attempts to use invariant learning to detach the invariant preference of users for unbiased recommendations in an unsupervised way. However, it faces the drawbacks of low model accuracy and unstable prediction performance due to the losing cooperation with variant preference. In this paper, we experimentally demonstrate that invariant learning causes information loss by directly discarding the variant information, which reduces the generalization ability and results in the degradation of model performance in unbiased recommendations. Based on this consideration, we propose a novel lightweight knowledge distillation framework (KDDebias) to automatically learn the unbiased preference of users from both invariant and variant information. Specifically, the variant information is imputed to the invariant user preference in the distance-aware knowledge distillation process. Extensive experiments on three public datasets, i.e., Yahoo!R3, Coat, and MIND, show that with the biased imputation from the variant preference of users, our proposed method achieves significant improvements with less than 50% learning parameters compared to the SOTA unsupervised debiasing model in recommender systems. Our code is publicly available at https://github.com/BAI-LAB/KD-Debias.
- Abstract(参考訳): これまでのデバイアス研究では、モデルトレーニングの監督に偏りのないデータを用いていた。
彼らは、偏見のないデータを得るための高い試行リスクと実験コストに悩まされている。
近年の研究では、教師なしの方法で非偏見のないレコメンデーションのために、不変学習を用いて、ユーザの不変な嗜好を取り除こうとしている。
しかし,低モデル精度と不安定な予測性能の欠点は,変種選好との協調が失われることにある。
本稿では,変分学習が変分情報を直接捨てることによって情報損失を引き起こすことを実験的に実証し,一般化能力の低下とモデル性能の低下をもたらすことを示す。
そこで本研究では,不変情報と変分情報の両方から,ユーザの偏りのない嗜好を自動的に学習する,軽量な知識蒸留フレームワーク(KDDebias)を提案する。
具体的には、距離認識知識蒸留プロセスにおいて、変種情報を不変ユーザ嗜好に印加する。
提案手法は,Yahoo!R3,Coat,MINDの3つの公開データセットに対する大規模な実験により,ユーザの嗜好の変化による偏りのある計算を行うことで,推薦システムにおけるSOTAの教師なしバイアスモデルと比較して,50%未満の学習パラメータで大幅な改善が達成されることを示した。
私たちのコードはhttps://github.com/BAI-LAB/KD-Debias.comで公開されています。
関連論文リスト
- CosFairNet:A Parameter-Space based Approach for Bias Free Learning [1.9116784879310025]
バイアス付きデータに基づいてトレーニングされたディープニューラルネットワークは、意図しない推論ルールを不注意に学習することが多い。
本稿では,モデルのパラメータ空間内で直接バイアスに対処する新しい手法を提案する。
各種合成および実世界のデータセットにおいて,分類精度の向上と偏りの低減効果を示す。
論文 参考訳(メタデータ) (2024-10-19T13:06:40Z) - Debiased Recommendation with Noisy Feedback [41.38490962524047]
収集データ中のMNARとOMEから予測モデルの非バイアス学習に対する交差点脅威について検討する。
まず, OME-EIB, OME-IPS, OME-DR推定器を設計する。
論文 参考訳(メタデータ) (2024-06-24T23:42:18Z) - Debiased Model-based Interactive Recommendation [22.007617148466807]
textbfidentible textbfDebiased textbfModel-based textbfInteractive textbfRecommendation(略してtextbfiDMIR)と呼ばれるモデルを開発する。
最初の欠点として、識別保証を伴う時間変化レコメンデーション生成プロセスの因果メカニズムに基づいて、偏見付き因果世界モデルを考案する。
第2の欠点として、偏りのある対照的な学習と一致し、サンプリングバイアスを避ける、偏りのある対照的な政策を考案する。
論文 参考訳(メタデータ) (2024-02-24T14:10:04Z) - Balancing Unobserved Confounding with a Few Unbiased Ratings in Debiased
Recommendations [4.960902915238239]
本稿では,既存のデバイアス法に適用可能な理論的に保証されたモデル非依存バランス手法を提案する。
提案手法では, バイアスデータを用いて学習したモデルパラメータを補正し, バイアスデータのバランス係数を適応的に学習することで, バイアスデータを完全に活用する。
論文 参考訳(メタデータ) (2023-04-17T08:56:55Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data [65.42329520528223]
不十分なデータがモデルを、通常テストとは異なる限られたトレーニング環境にバイアスしやすくする理由が示されています。
従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
論文 参考訳(メタデータ) (2022-07-25T15:26:19Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - AutoDebias: Learning to Debias for Recommendation [43.84313723394282]
今回提案するtextitAotoDebiasは、他の(小さな)均一なデータセットを利用してデバイアスパラメータを最適化する。
我々は、AutoDebiasの一般化を導き、適切なデバイアス戦略を得る能力を証明する。
論文 参考訳(メタデータ) (2021-05-10T08:03:48Z) - Towards Debiasing NLU Models from Unknown Biases [70.31427277842239]
NLUモデルは、しばしばバイアスを利用して、意図したタスクを適切に学習することなく、データセット固有の高いパフォーマンスを達成する。
本稿では、モデルがバイアスを事前に知ることなく、主にバイアスを利用するのを防ぐ自己バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-25T15:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。