論文の概要: AutoDebias: Learning to Debias for Recommendation
- arxiv url: http://arxiv.org/abs/2105.04170v1
- Date: Mon, 10 May 2021 08:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:30:42.764054
- Title: AutoDebias: Learning to Debias for Recommendation
- Title(参考訳): AutoDebias: 推奨のためにデバイアスを学ぶ
- Authors: Jiawei Chen, Hande Dong, Yang Qiu, Xiangnan He, Xin Xin, Liang Chen,
Guli Lin, Keping Yang
- Abstract要約: 今回提案するtextitAotoDebiasは、他の(小さな)均一なデータセットを利用してデバイアスパラメータを最適化する。
我々は、AutoDebiasの一般化を導き、適切なデバイアス戦略を得る能力を証明する。
- 参考スコア(独自算出の注目度): 43.84313723394282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems rely on user behavior data like ratings and clicks to
build personalization model. However, the collected data is observational
rather than experimental, causing various biases in the data which
significantly affect the learned model. Most existing work for recommendation
debiasing, such as the inverse propensity scoring and imputation approaches,
focuses on one or two specific biases, lacking the universal capacity that can
account for mixed or even unknown biases in the data.
Towards this research gap, we first analyze the origin of biases from the
perspective of \textit{risk discrepancy} that represents the difference between
the expectation empirical risk and the true risk. Remarkably, we derive a
general learning framework that well summarizes most existing debiasing
strategies by specifying some parameters of the general framework. This
provides a valuable opportunity to develop a universal solution for debiasing,
e.g., by learning the debiasing parameters from data. However, the training
data lacks important signal of how the data is biased and what the unbiased
data looks like. To move this idea forward, we propose \textit{AotoDebias} that
leverages another (small) set of uniform data to optimize the debiasing
parameters by solving the bi-level optimization problem with meta-learning.
Through theoretical analyses, we derive the generalization bound for AutoDebias
and prove its ability to acquire the appropriate debiasing strategy. Extensive
experiments on two real datasets and a simulated dataset demonstrated
effectiveness of AutoDebias. The code is available at
\url{https://github.com/DongHande/AutoDebias}.
- Abstract(参考訳): レコメンダシステムは、パーソナライズモデルを構築するために、評価やクリックのようなユーザーの行動データに依存する。
しかし、収集されたデータは実験よりも観察的であり、学習モデルに大きく影響を及ぼす様々なバイアスを引き起こす。
インバース・プロペンシリティ・スコアリングやインプテーション・アプローチのような、既存のレコメンデーション・デバイアスのための研究のほとんどは、1つまたは2つの特定のバイアスに焦点を当てており、データの混合や未知のバイアスを考慮できる普遍的な能力が欠如している。
この研究のギャップに向けて,我々はまず,期待する経験的リスクと真のリスクとの差を表す \textit{risk discrepancy} の観点からバイアスの起源を分析する。
注目すべきは、一般的なフレームワークのパラメータを指定することによって、既存のデバイアスング戦略をよく要約する一般的な学習フレームワークを導出する。
これは、データからデバイアスパラメータを学習することによってデバイアスのための普遍的なソリューションを開発する貴重な機会を提供する。
しかし、トレーニングデータには、データのバイアスやバイアスのないデータの見た目に関する重要なシグナルが欠けている。
このアイデアを前進させるために、メタラーニングによる二段階最適化問題を解くことでデバイアスパラメータを最適化するために、別の(小さな)一様データのセットを利用する \textit{aotodebias} を提案する。
理論解析を通じて、オートデビアスに対する一般化を導出し、適切なデバイアス戦略を得る能力を証明する。
2つの実際のデータセットとシミュレーションデータセットに関する大規模な実験は、AutoDebiasの有効性を実証した。
コードは \url{https://github.com/donghande/autodebias} で入手できる。
関連論文リスト
- Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Medical Image Debiasing by Learning Adaptive Agreement from a Biased
Council [8.530912655468645]
ディープラーニングは、データセットバイアスによって得られたショートカットを学習する傾向があります。
その重要性にもかかわらず、データセットバイアスに対処する医療画像分類領域では、多くの研究が行われている。
本稿では,バイアスラベルに依存しないバイアス緩和フレームワークであるバイアスド・カウンシル(Ada-ABC)からの学習適応合意を提案する。
論文 参考訳(メタデータ) (2024-01-22T06:29:52Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Balancing Unobserved Confounding with a Few Unbiased Ratings in Debiased
Recommendations [4.960902915238239]
本稿では,既存のデバイアス法に適用可能な理論的に保証されたモデル非依存バランス手法を提案する。
提案手法では, バイアスデータを用いて学習したモデルパラメータを補正し, バイアスデータのバランス係数を適応的に学習することで, バイアスデータを完全に活用する。
論文 参考訳(メタデータ) (2023-04-17T08:56:55Z) - Unbiased Supervised Contrastive Learning [10.728852691100338]
本研究では,バイアスに頑健な表現を学習する問題に取り組む。
まず、偏りのあるデータを扱う際に、最近の対照的な損失がなぜ失敗するのかを明らかにするための、マージンに基づく理論的枠組みを提案する。
教師付きコントラスト損失(epsilon-SupInfoNCE)を新たに定式化し,正試料と負試料の最小距離をより正確に制御する。
理論的な枠組みのおかげで、極めて偏りのあるデータでもうまく機能する新しい偏りのある正規化損失であるFairKLも提案する。
論文 参考訳(メタデータ) (2022-11-10T13:44:57Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Learning Debiased Representation via Disentangled Feature Augmentation [19.348340314001756]
本稿では, 様々なバイアスを伴うサンプルを用いたトレーニングが, 脱バイアスに不可欠であることを示す実験的検討を行った。
本稿では, 多様なバイアス分散サンプルを合成するために, 特徴レベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T08:03:25Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。