論文の概要: Exploring User Opinions of Fairness in Recommender Systems
- arxiv url: http://arxiv.org/abs/2003.06461v2
- Date: Fri, 17 Apr 2020 20:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 02:23:45.752124
- Title: Exploring User Opinions of Fairness in Recommender Systems
- Title(参考訳): レコメンダシステムにおける公平性のユーザ意識の検討
- Authors: Jessie Smith, Nasim Sonboli, Casey Fiesler, Robin Burke
- Abstract要約: ユーザーが推奨する公平な待遇の考えは何なのかを尋ねる。
公平性に対するユーザの意見の相違や変化の原因となるものを分析する。
- 参考スコア(独自算出の注目度): 13.749884072907163
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithmic fairness for artificial intelligence has become increasingly
relevant as these systems become more pervasive in society. One realm of AI,
recommender systems, presents unique challenges for fairness due to trade offs
between optimizing accuracy for users and fairness to providers. But what is
fair in the context of recommendation--particularly when there are multiple
stakeholders? In an initial exploration of this problem, we ask users what
their ideas of fair treatment in recommendation might be, and why. We analyze
what might cause discrepancies or changes between user's opinions towards
fairness to eventually help inform the design of fairer and more transparent
recommendation algorithms.
- Abstract(参考訳): 人工知能に対するアルゴリズム的公平性は、これらのシステムが社会に浸透するにつれて益々重要になっている。
AIの領域のひとつ,レコメンダシステムでは,ユーザの精度の最適化とプロバイダへの公正性のトレードオフによるフェアネスに関するユニークな課題が紹介されている。
しかし、レコメンデーションの文脈で何が公平か — 特に複数の利害関係者がいる場合。
この問題を最初に検討する際,提案する公平な治療のアイデアは何か,なぜなのかをユーザに尋ねる。
公平性に対するユーザの意見の相違や変化の原因となるものを分析し、最終的にはより公平で透明性の高い推奨アルゴリズムの設計を通知する。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - CPFair: Personalized Consumer and Producer Fairness Re-ranking for
Recommender Systems [5.145741425164946]
本稿では,消費者側と生産側の両方から公平性制約をシームレスに統合する最適化に基づく再ランク付け手法を提案する。
提案手法は, 消費者と生産者の公正性を両立させ, 全体的な推奨品質を低下させることなく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-17T20:38:02Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Towards Personalized Fairness based on Causal Notion [18.5897206797918]
本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
論文 参考訳(メタデータ) (2021-05-20T15:24:34Z) - Fairness and Transparency in Recommendation: The Users' Perspective [14.830700792215849]
公平性認識型レコメンダーシステムのユーザ視点について考察する。
フェアネス対応レコメンダーシステムのユーザ理解と信頼を向上させる3つの機能を提案します。
論文 参考訳(メタデータ) (2021-03-16T00:42:09Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。