論文の概要: Consumer-side Fairness in Recommender Systems: A Systematic Survey of
Methods and Evaluation
- arxiv url: http://arxiv.org/abs/2305.09330v1
- Date: Tue, 16 May 2023 10:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 15:15:21.474144
- Title: Consumer-side Fairness in Recommender Systems: A Systematic Survey of
Methods and Evaluation
- Title(参考訳): レコメンダシステムにおける消費者側の公平性:方法と評価の体系的調査
- Authors: Bj{\o}rnar Vass{\o}y and Helge Langseth
- Abstract要約: 機械学習手法における差別意識の高まりは、学界と産業の両方を動機付け、レコメンデーションシステムにおける公正性の確保について研究した。
推薦制度では、そのような問題は職業推薦によってよく例示されており、歴史的データの偏見は、1つの性別から低い賃金、あるいはステレオタイプの普及に関する推薦制度につながる可能性がある。
本調査は、リコメンデーションシステムにおける消費者側の公正性に関する現在の研究の体系的概要と議論である。
- 参考スコア(独自算出の注目度): 1.4123323039043334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the current landscape of ever-increasing levels of digitalization, we are
facing major challenges pertaining to scalability. Recommender systems have
become irreplaceable both for helping users navigate the increasing amounts of
data and, conversely, aiding providers in marketing products to interested
users. The growing awareness of discrimination in machine learning methods has
recently motivated both academia and industry to research how fairness can be
ensured in recommender systems. For recommender systems, such issues are well
exemplified by occupation recommendation, where biases in historical data may
lead to recommender systems relating one gender to lower wages or to the
propagation of stereotypes. In particular, consumer-side fairness, which
focuses on mitigating discrimination experienced by users of recommender
systems, has seen a vast number of diverse approaches for addressing different
types of discrimination. The nature of said discrimination depends on the
setting and the applied fairness interpretation, of which there are many
variations. This survey serves as a systematic overview and discussion of the
current research on consumer-side fairness in recommender systems. To that end,
a novel taxonomy based on high-level fairness interpretation is proposed and
used to categorize the research and their proposed fairness evaluation metrics.
Finally, we highlight some suggestions for the future direction of the field.
- Abstract(参考訳): ディジタル化のレベルがますます増大する現在の状況では、スケーラビリティに関する大きな課題に直面しています。
リコメンダシステムは、ユーザーがデータ量の増大をナビゲートし、逆に、マーケティング製品のプロバイダを興味のあるユーザに支援するためにも、置き換えられないものになっている。
機械学習の手法における差別に対する認識の高まりは、最近アカデミアと産業の両方が、レコメンダシステムにおいて公平性をいかに確保できるかを研究する動機付けになっている。
推薦制度では、そのような問題は職業推薦によってよく例示されており、歴史的データの偏見は、1つの性別から低い賃金、あるいはステレオタイプの普及に関する推薦制度につながる可能性がある。
特に、レコメンダシステムのユーザが経験する差別の緩和に焦点を当てた消費者側の公平性は、さまざまなタイプの差別に対処するための、数多くの多様なアプローチを見てきた。
これらの差別の性質は、多くのバリエーションがある設定と適用された公正解釈に依存する。
この調査は、レコメンダシステムにおける消費者側の公平性に関する現在の研究の体系的な概観と議論に役立っている。
そのために,高レベルの公平性解釈に基づく新しい分類法を提案し,その研究とそれらの公正性評価指標を分類する。
最後に,フィールドの今後の方向性について提案する。
関連論文リスト
- Metrics for popularity bias in dynamic recommender systems [0.0]
バイアスドレコメンデーションは個人、敏感なユーザーグループ、社会に悪影響を及ぼす可能性のある決定につながる可能性がある。
本稿では,RecSysモデルの出力から直接発生する人気バイアスの定量化に着目する。
RescSysにおける人気バイアスを時間とともに定量化するための4つの指標が提案されている。
論文 参考訳(メタデータ) (2023-10-12T16:15:30Z) - Impression-Aware Recommender Systems [57.38537491535016]
新たなデータソースは、レコメンデーションシステムの品質を改善する新しい機会をもたらす。
研究者はインプレッションを使ってユーザーの好みを洗練させ、推奨システム研究の現在の制限を克服することができる。
本稿ではインプレッションを用いたレコメンデーションシステムに関する体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-08-15T16:16:02Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Fairness in Recommendation: Foundations, Methods and Applications [38.63520487389138]
本調査は,レコメンデーション文学における公平性の基盤に焦点を当てたものである。
まず、分類やランキングといった基本的な機械学習タスクにおける公平性について簡単な紹介を行う。
その後、調査では、フェアネスの定義、フェアネスを改善するための典型的な技術、そして、フェアネス研究のためのデータセットに焦点をあてて、フェアネスを推奨する。
論文 参考訳(メタデータ) (2022-05-26T20:48:53Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - CPFair: Personalized Consumer and Producer Fairness Re-ranking for
Recommender Systems [5.145741425164946]
本稿では,消費者側と生産側の両方から公平性制約をシームレスに統合する最適化に基づく再ランク付け手法を提案する。
提案手法は, 消費者と生産者の公正性を両立させ, 全体的な推奨品質を低下させることなく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-17T20:38:02Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。