論文の概要: Balancing Unobserved Confounding with a Few Unbiased Ratings in Debiased
Recommendations
- arxiv url: http://arxiv.org/abs/2304.09085v1
- Date: Mon, 17 Apr 2023 08:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 14:02:50.785447
- Title: Balancing Unobserved Confounding with a Few Unbiased Ratings in Debiased
Recommendations
- Title(参考訳): Debiased Recommendationsにおける無バイアス評価とのバランス
- Authors: Haoxuan Li, Yanghao Xiao, Chunyuan Zheng, Peng Wu
- Abstract要約: 本稿では,既存のデバイアス法に適用可能な理論的に保証されたモデル非依存バランス手法を提案する。
提案手法では, バイアスデータを用いて学習したモデルパラメータを補正し, バイアスデータのバランス係数を適応的に学習することで, バイアスデータを完全に活用する。
- 参考スコア(独自算出の注目度): 4.960902915238239
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recommender systems are seen as an effective tool to address information
overload, but it is widely known that the presence of various biases makes
direct training on large-scale observational data result in sub-optimal
prediction performance. In contrast, unbiased ratings obtained from randomized
controlled trials or A/B tests are considered to be the golden standard, but
are costly and small in scale in reality. To exploit both types of data, recent
works proposed to use unbiased ratings to correct the parameters of the
propensity or imputation models trained on the biased dataset. However, the
existing methods fail to obtain accurate predictions in the presence of
unobserved confounding or model misspecification. In this paper, we propose a
theoretically guaranteed model-agnostic balancing approach that can be applied
to any existing debiasing method with the aim of combating unobserved
confounding and model misspecification. The proposed approach makes full use of
unbiased data by alternatively correcting model parameters learned with biased
data, and adaptively learning balance coefficients of biased samples for
further debiasing. Extensive real-world experiments are conducted along with
the deployment of our proposal on four representative debiasing methods to
demonstrate the effectiveness.
- Abstract(参考訳): リコメンダシステムは情報過負荷に対処する有効なツールと考えられているが、様々なバイアスが存在することによって、大規模観測データを直接トレーニングすることで、準最適予測性能が得られることが広く知られている。
対照的に、ランダムに制御された試験またはa/bテストから得られた偏りのない評価は、金本位制と見なされるが、実際には高価かつ小規模である。
両方のデータを活用するために、最近の研究では、偏りのない評価を用いて、偏りのあるデータセットでトレーニングされた固有性やインプテーションモデルのパラメータを修正することを提案している。
しかし、既存の手法は、観測されていない共起やモデル誤特定の存在下で正確な予測を得ることができない。
本稿では,既存のデバイアス法に適用可能なモデル非依存バランス手法を提案する。
提案手法では, バイアスデータを用いて学習したモデルパラメータを補正し, バイアスデータのバランス係数を適応的に学習することで, バイアスデータを完全に活用する。
実世界の広範囲な実験を行い,提案手法を4つの代表的なデバイアス法に適用し,その効果を実証した。
関連論文リスト
- Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Echoes: Unsupervised Debiasing via Pseudo-bias Labeling in an Echo
Chamber [17.034228910493056]
本稿では,既存のバイアスモデルがトレーニングデータにおけるバイアス強調サンプルに過度に適合していることを明らかにする実験的検討を行った。
本研究では、バイアスモデルとターゲットモデルを異なる戦略で訓練するEchoesという、単純で効果的な手法を提案する。
提案手法は,既存の合成データセットと実世界のデータセットのベースラインと比較して,優れたデバイアス化結果が得られる。
論文 参考訳(メタデータ) (2023-05-06T13:13:18Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Provable Detection of Propagating Sampling Bias in Prediction Models [1.7709344190822935]
本稿では,データバイアスの特定の形式である差分サンプリングバイアスが,データステージから予測ステージにどのように伝播するかを理論的に分析する。
妥当な仮定の下では、モデル予測におけるバイアスの量が、データの差分サンプリングバイアスの量の関数としてどのように変化するかを定量化する。
仮定が緩和された場合でも理論的な結果が実際に成り立つことを実証する。
論文 参考訳(メタデータ) (2023-02-13T23:39:35Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Uncertainty Calibration for Ensemble-Based Debiasing Methods [27.800387167841972]
本稿では,アンサンブルに基づくデバイアス法におけるバイアスのみのモデルに焦点をあてる。
バイアスのみのモデルの不正確な不確実性推定により, バイアス除去性能が損なわれることを示す。
そこで本研究では,バイアスのみのモデルでキャリブレーションを行い,三段階のアンサンブルに基づくデバイアス機構を実現することを提案する。
論文 参考訳(メタデータ) (2021-11-07T15:13:32Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Towards Debiasing NLU Models from Unknown Biases [70.31427277842239]
NLUモデルは、しばしばバイアスを利用して、意図したタスクを適切に学習することなく、データセット固有の高いパフォーマンスを達成する。
本稿では、モデルがバイアスを事前に知ることなく、主にバイアスを利用するのを防ぐ自己バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-25T15:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。