論文の概要: Modeling and Counteracting Exposure Bias in Recommender Systems
- arxiv url: http://arxiv.org/abs/2001.04832v1
- Date: Wed, 1 Jan 2020 00:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 09:18:41.510473
- Title: Modeling and Counteracting Exposure Bias in Recommender Systems
- Title(参考訳): レコメンダシステムにおける露出バイアスのモデル化と対策
- Authors: Sami Khenissi and Olfa Nasraoui
- Abstract要約: 本研究では,行列因数分解など,広く用いられている推奨戦略に固有のバイアスについて検討する。
本稿では,リコメンデータシステムのための新しいデバイアス対策を提案する。
その結果,レコメンダシステムにはバイアスがあり,ユーザの事前の露出に依存していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What we discover and see online, and consequently our opinions and decisions,
are becoming increasingly affected by automated machine learned predictions.
Similarly, the predictive accuracy of learning machines heavily depends on the
feedback data that we provide them. This mutual influence can lead to
closed-loop interactions that may cause unknown biases which can be exacerbated
after several iterations of machine learning predictions and user feedback.
Machine-caused biases risk leading to undesirable social effects ranging from
polarization to unfairness and filter bubbles.
In this paper, we study the bias inherent in widely used recommendation
strategies such as matrix factorization. Then we model the exposure that is
borne from the interaction between the user and the recommender system and
propose new debiasing strategies for these systems.
Finally, we try to mitigate the recommendation system bias by engineering
solutions for several state of the art recommender system models.
Our results show that recommender systems are biased and depend on the prior
exposure of the user. We also show that the studied bias iteratively decreases
diversity in the output recommendations. Our debiasing method demonstrates the
need for alternative recommendation strategies that take into account the
exposure process in order to reduce bias.
Our research findings show the importance of understanding the nature of and
dealing with bias in machine learning models such as recommender systems that
interact directly with humans, and are thus causing an increasing influence on
human discovery and decision making
- Abstract(参考訳): オンラインで見つけて見るもの、その結果、私たちの意見や判断は、自動化された機械学習の予測によってますます影響を受けています。
同様に、学習機械の予測精度は、私たちが提供するフィードバックデータに大きく依存します。
この相互影響は、未知のバイアスを引き起こすクローズドループ相互作用につながる可能性がある。
機械による偏見は、偏極から不公平、バブルの濾過まで、望ましくない社会的影響をもたらす。
本稿では,行列因子化のような広く使われる推奨戦略に内在するバイアスについて検討する。
次に,ユーザとレコメンダシステムとのインタラクションから生じる露出をモデル化し,これらのシステムに対する新しいデバイアス戦略を提案する。
最後に,技術ソリューションによるレコメンデーションシステムのバイアスを軽減するために,いくつかの最先端技術レコメンデーションシステムモデルを提案する。
その結果,レコメンダシステムは偏りがあり,ユーザの事前の露出に依存することがわかった。
また, 学習バイアスは, 出力レコメンデーションの多様性を反復的に減少させることを示した。
提案手法は, バイアス低減のために露光過程を考慮した代替レコメンデーション戦略の必要性を示す。
本研究は,人間と直接対話するレコメンダシステムなどの機械学習モデルにおいて,バイアスの性質を理解し,対処することが重要であることを示し,人間の発見や意思決定に影響を及ぼす。
関連論文リスト
- Correcting for Popularity Bias in Recommender Systems via Item Loss Equalization [1.7771454131646311]
人気アイテムの小さなセットが、高い相互作用率のために推奨結果を支配している。
この現象は、ニッチな興味のある人を無視しながら、メインストリームの趣味を持つユーザーに不当に利益をもたらす。
本稿では,推薦モデルのトレーニングプロセスに介入することで,この問題に対処するプロセス内アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T08:34:18Z) - Source Echo Chamber: Exploring the Escalation of Source Bias in User, Data, and Recommender System Feedback Loop [65.23044868332693]
本稿では,ソースバイアスがレコメンデーションシステムの領域に与える影響について検討する。
ソースバイアスの頻度を示し、ソースバイアスを増幅した潜在的デジタルエコーチャンバーを明らかにする。
我々は,HGCとAIGCの両方に対してモデル不均一性を維持するブラックボックスデバイアス法を導入する。
論文 参考訳(メタデータ) (2024-05-28T09:34:50Z) - A First Look at Selection Bias in Preference Elicitation for Recommendation [64.44255178199846]
選好選好における選好バイアスの影響について検討した。
大きなハードルは、好みの推論インタラクションを持つ公開データセットがないことです。
本稿では,トピックに基づく選好提案プロセスのシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-05-01T14:56:56Z) - Be Aware of the Neighborhood Effect: Modeling Selection Bias under Interference [50.95521705711802]
従来の研究では、予測モデルの偏りのない学習を実現するために、選択バイアスに対処することに注力してきた。
本稿では、因果推論の観点から、近隣効果を干渉問題として公式に定式化する。
本稿では,近隣効果の存在下で選択バイアスに対処できる新しい理想的損失を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:20:41Z) - Managing multi-facet bias in collaborative filtering recommender systems [0.0]
アイテムグループ間のバイアスドレコメンデーションは、システムに対するユーザの不満を引き起こすとともに、アイテムプロバイダの利益を脅かす可能性がある。
本研究の目的は,最先端の協調フィルタリング推薦アルゴリズムの出力における地理的起源と人気に関する新たなタイプの交叉バイアスを管理することである。
2つの実世界の映画と書籍のデータセットに関する大規模な実験は、アイテムの生産大陸に富んだものであり、提案アルゴリズムが精度と上記のバイアスの両タイプの間に合理的なバランスをとっていることを示している。
論文 参考訳(メタデータ) (2023-02-21T10:06:01Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z) - Correcting the User Feedback-Loop Bias for Recommendation Systems [34.44834423714441]
本稿では,レコメンデーションシステムにおいて,ユーザのフィードバックループバイアスを修正するための系統的かつ動的手法を提案する。
本手法は,各ユーザの動的評価履歴の埋め込みを学習するためのディープラーニングコンポーネントを含む。
実世界のレコメンデーションシステムにおけるユーザフィードバックループバイアスの存在を実証的に検証した。
論文 参考訳(メタデータ) (2021-09-13T15:02:55Z) - Contrastive Learning for Debiased Candidate Generation in Large-Scale
Recommender Systems [84.3996727203154]
コントラスト損失の一般的な選択は、逆確率重み付けによる露光バイアスの低減と等価であることを示す。
我々はCLRecをさらに改良し、マルチCLRecを提案する。
提案手法は,少なくとも4ヶ月のオンラインA/Bテストとオフライン分析が実施され,大幅に改善されている。
論文 参考訳(メタデータ) (2020-05-20T08:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。