論文の概要: Fairness and Transparency in Recommendation: The Users' Perspective
- arxiv url: http://arxiv.org/abs/2103.08786v1
- Date: Tue, 16 Mar 2021 00:42:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 22:15:25.254318
- Title: Fairness and Transparency in Recommendation: The Users' Perspective
- Title(参考訳): 勧告の公正性と透明性--利用者の視点から
- Authors: Nasim Sonboli and Jessie J. Smith, Florencia Cabral Berenfus, Robin
Burke, Casey Fiesler
- Abstract要約: 公平性認識型レコメンダーシステムのユーザ視点について考察する。
フェアネス対応レコメンダーシステムのユーザ理解と信頼を向上させる3つの機能を提案します。
- 参考スコア(独自算出の注目度): 14.830700792215849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Though recommender systems are defined by personalization, recent work has
shown the importance of additional, beyond-accuracy objectives, such as
fairness. Because users often expect their recommendations to be purely
personalized, these new algorithmic objectives must be communicated
transparently in a fairness-aware recommender system. While explanation has a
long history in recommender systems research, there has been little work that
attempts to explain systems that use a fairness objective. Even though the
previous work in other branches of AI has explored the use of explanations as a
tool to increase fairness, this work has not been focused on recommendation.
Here, we consider user perspectives of fairness-aware recommender systems and
techniques for enhancing their transparency. We describe the results of an
exploratory interview study that investigates user perceptions of fairness,
recommender systems, and fairness-aware objectives. We propose three features
-- informed by the needs of our participants -- that could improve user
understanding of and trust in fairness-aware recommender systems.
- Abstract(参考訳): 推薦システムはパーソナライズによって定義されるが、最近の研究は、公平性のような追加の精度以上の目的の重要性を示している。
ユーザーは自分のレコメンデーションが純粋にパーソナライズされることを期待しているので、これらの新しいアルゴリズムの目的を公正なレコメンデーションシステムで透過的に伝達する必要がある。
解説はレコメンダシステムの研究において長い歴史を持つが、公平な目的を持つシステムを説明する試みはほとんど行われていない。
AIの他の分野における以前の研究は、公正性を高めるツールとしての説明の使用を探求してきたが、この研究は推奨に重点を置いていない。
本稿では,公正を意識したレコメンデータシステムのユーザ視点と,透明性向上のための技術について考察する。
本稿では,フェアネス,レコメンデーションシステム,フェアネス認識目標に関する探索的インタビュー調査の結果について述べる。
私たちは,フェアネスを意識したレコメンダシステムに対するユーザの理解と信頼を改善する3つの機能を提案しました。
関連論文リスト
- Transparency, Privacy, and Fairness in Recommender Systems [0.19036571490366497]
このハビテーションは、(i)透明性と認知モデル、(ii)プライバシーと限定された嗜好情報、(iii)推薦システムにおける公正性と人気バイアスに関連する側面を精査する。
論文 参考訳(メタデータ) (2024-06-17T08:37:14Z) - User-Controllable Recommendation via Counterfactual Retrospective and
Prospective Explanations [96.45414741693119]
本稿では,説明可能性と可制御性をシームレスに統合するユーザ制御型レコメンデータシステムを提案する。
反ファクト推論を通じて、ふりかえりと予測的な説明の両方を提供することで、ユーザーはシステムに対する制御をカスタマイズできる。
論文 参考訳(メタデータ) (2023-08-02T01:13:36Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Fairness in Recommendation: Foundations, Methods and Applications [38.63520487389138]
本調査は,レコメンデーション文学における公平性の基盤に焦点を当てたものである。
まず、分類やランキングといった基本的な機械学習タスクにおける公平性について簡単な紹介を行う。
その後、調査では、フェアネスの定義、フェアネスを改善するための典型的な技術、そして、フェアネス研究のためのデータセットに焦点をあてて、フェアネスを推奨する。
論文 参考訳(メタデータ) (2022-05-26T20:48:53Z) - Towards Personalized Fairness based on Causal Notion [18.5897206797918]
本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
論文 参考訳(メタデータ) (2021-05-20T15:24:34Z) - Knowledge Transfer via Pre-training for Recommendation: A Review and
Prospect [89.91745908462417]
実験による推薦システムに対する事前学習の利点を示す。
事前学習を伴うレコメンデータシステムの今後の研究に向けて,いくつかの将来的な方向性について論じる。
論文 参考訳(メタデータ) (2020-09-19T13:06:27Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Survey for Trust-aware Recommender Systems: A Deep Learning Perspective [48.2733163413522]
信頼できるレコメンデーションシステムを採用することが重要になります。
本調査では,信頼を意識したレコメンデータシステムの3つのカテゴリについて概説する。
論文 参考訳(メタデータ) (2020-04-08T02:11:55Z) - Exploring User Opinions of Fairness in Recommender Systems [13.749884072907163]
ユーザーが推奨する公平な待遇の考えは何なのかを尋ねる。
公平性に対するユーザの意見の相違や変化の原因となるものを分析する。
論文 参考訳(メタデータ) (2020-03-13T19:44:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。