論文の概要: Modeling and Counteracting Exposure Bias in Recommender Systems
- arxiv url: http://arxiv.org/abs/2001.04832v1
- Date: Wed, 1 Jan 2020 00:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 09:18:41.510473
- Title: Modeling and Counteracting Exposure Bias in Recommender Systems
- Title(参考訳): レコメンダシステムにおける露出バイアスのモデル化と対策
- Authors: Sami Khenissi and Olfa Nasraoui
- Abstract要約: 本研究では,行列因数分解など,広く用いられている推奨戦略に固有のバイアスについて検討する。
本稿では,リコメンデータシステムのための新しいデバイアス対策を提案する。
その結果,レコメンダシステムにはバイアスがあり,ユーザの事前の露出に依存していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What we discover and see online, and consequently our opinions and decisions,
are becoming increasingly affected by automated machine learned predictions.
Similarly, the predictive accuracy of learning machines heavily depends on the
feedback data that we provide them. This mutual influence can lead to
closed-loop interactions that may cause unknown biases which can be exacerbated
after several iterations of machine learning predictions and user feedback.
Machine-caused biases risk leading to undesirable social effects ranging from
polarization to unfairness and filter bubbles.
In this paper, we study the bias inherent in widely used recommendation
strategies such as matrix factorization. Then we model the exposure that is
borne from the interaction between the user and the recommender system and
propose new debiasing strategies for these systems.
Finally, we try to mitigate the recommendation system bias by engineering
solutions for several state of the art recommender system models.
Our results show that recommender systems are biased and depend on the prior
exposure of the user. We also show that the studied bias iteratively decreases
diversity in the output recommendations. Our debiasing method demonstrates the
need for alternative recommendation strategies that take into account the
exposure process in order to reduce bias.
Our research findings show the importance of understanding the nature of and
dealing with bias in machine learning models such as recommender systems that
interact directly with humans, and are thus causing an increasing influence on
human discovery and decision making
- Abstract(参考訳): オンラインで見つけて見るもの、その結果、私たちの意見や判断は、自動化された機械学習の予測によってますます影響を受けています。
同様に、学習機械の予測精度は、私たちが提供するフィードバックデータに大きく依存します。
この相互影響は、未知のバイアスを引き起こすクローズドループ相互作用につながる可能性がある。
機械による偏見は、偏極から不公平、バブルの濾過まで、望ましくない社会的影響をもたらす。
本稿では,行列因子化のような広く使われる推奨戦略に内在するバイアスについて検討する。
次に,ユーザとレコメンダシステムとのインタラクションから生じる露出をモデル化し,これらのシステムに対する新しいデバイアス戦略を提案する。
最後に,技術ソリューションによるレコメンデーションシステムのバイアスを軽減するために,いくつかの最先端技術レコメンデーションシステムモデルを提案する。
その結果,レコメンダシステムは偏りがあり,ユーザの事前の露出に依存することがわかった。
また, 学習バイアスは, 出力レコメンデーションの多様性を反復的に減少させることを示した。
提案手法は, バイアス低減のために露光過程を考慮した代替レコメンデーション戦略の必要性を示す。
本研究は,人間と直接対話するレコメンダシステムなどの機械学習モデルにおいて,バイアスの性質を理解し,対処することが重要であることを示し,人間の発見や意思決定に影響を及ぼす。
関連論文リスト
- Break Out of a Pigeonhole: A Unified Framework for Examining
Miscalibration, Bias, and Stereotype in Recommender Systems [6.209548319476692]
本研究の目的は,レコメンデーションシステムの体系的エラーと,それらが様々なアカウンタビリティ問題にどのように現れるかを明らかにすることである。
本稿では,予測誤りの原因を,様々な種類のシステムに誘発される影響を定量化する重要な指標の集合に識別する統合フレームワークを提案する。
本研究は,システムによる影響と誤校正だけでなく,レコメンデーションシステムにおけるステレオタイピングの問題についても,初めて体系的に検討したものである。
論文 参考訳(メタデータ) (2023-12-29T02:32:12Z) - Managing multi-facet bias in collaborative filtering recommender systems [0.0]
アイテムグループ間のバイアスドレコメンデーションは、システムに対するユーザの不満を引き起こすとともに、アイテムプロバイダの利益を脅かす可能性がある。
本研究の目的は,最先端の協調フィルタリング推薦アルゴリズムの出力における地理的起源と人気に関する新たなタイプの交叉バイアスを管理することである。
2つの実世界の映画と書籍のデータセットに関する大規模な実験は、アイテムの生産大陸に富んだものであり、提案アルゴリズムが精度と上記のバイアスの両タイプの間に合理的なバランスをとっていることを示している。
論文 参考訳(メタデータ) (2023-02-21T10:06:01Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z) - Correcting the User Feedback-Loop Bias for Recommendation Systems [34.44834423714441]
本稿では,レコメンデーションシステムにおいて,ユーザのフィードバックループバイアスを修正するための系統的かつ動的手法を提案する。
本手法は,各ユーザの動的評価履歴の埋め込みを学習するためのディープラーニングコンポーネントを含む。
実世界のレコメンデーションシステムにおけるユーザフィードバックループバイアスの存在を実証的に検証した。
論文 参考訳(メタデータ) (2021-09-13T15:02:55Z) - Heterogeneous Demand Effects of Recommendation Strategies in a Mobile
Application: Evidence from Econometric Models and Machine-Learning
Instruments [73.7716728492574]
本研究では,モバイルチャネルにおける様々なレコメンデーション戦略の有効性と,個々の製品に対する消費者の実用性と需要レベルに与える影響について検討する。
提案手法では, 有効性に有意な差が認められた。
我々は,ユーザ生成レビューのディープラーニングモデルに基づいて,製品分化(アイソレーション)をキャプチャする新しいエコノメトリ機器を開発した。
論文 参考訳(メタデータ) (2021-02-20T22:58:54Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Contrastive Learning for Debiased Candidate Generation in Large-Scale
Recommender Systems [84.3996727203154]
コントラスト損失の一般的な選択は、逆確率重み付けによる露光バイアスの低減と等価であることを示す。
我々はCLRecをさらに改良し、マルチCLRecを提案する。
提案手法は,少なくとも4ヶ月のオンラインA/Bテストとオフライン分析が実施され,大幅に改善されている。
論文 参考訳(メタデータ) (2020-05-20T08:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。