論文の概要: Two-Sided Fairness in Non-Personalised Recommendations
- arxiv url: http://arxiv.org/abs/2011.05287v1
- Date: Tue, 10 Nov 2020 18:11:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 07:59:21.192168
- Title: Two-Sided Fairness in Non-Personalised Recommendations
- Title(参考訳): ノンパーソナライズド・レコメンデーションにおける二面公平性
- Authors: Aadi Swadipto Mondal and Rakesh Bal and Sayan Sinha, Gourab K Patro
- Abstract要約: ユーザフェアネスと組織フェアネスという,2つの特定のフェアネスに関する問題(従来は別々に研究されていた)について論じる。
ユーザフェアネスについては、社会的選択理論、すなわち、ユーザ選択をより良く表現するために知られている様々な投票ルールの手法を用いてテストする。
投票ルールに基づく推薦の結果を分析した結果、よく知られた投票ルールはユーザ側より優れているが、高いバイアス値を示すことがわかった。
- 参考スコア(独自算出の注目度): 6.403167095324894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems are one of the most widely used services on several
online platforms to suggest potential items to the end-users. These services
often use different machine learning techniques for which fairness is a
concerning factor, especially when the downstream services have the ability to
cause social ramifications. Thus, focusing on the non-personalised (global)
recommendations in news media platforms (e.g., top-k trending topics on
Twitter, top-k news on a news platform, etc.), we discuss on two specific
fairness concerns together (traditionally studied separately)---user fairness
and organisational fairness. While user fairness captures the idea of
representing the choices of all the individual users in the case of global
recommendations, organisational fairness tries to ensure
politically/ideologically balanced recommendation sets. This makes user
fairness a user-side requirement and organisational fairness a platform-side
requirement. For user fairness, we test with methods from social choice theory,
i.e., various voting rules known to better represent user choices in their
results. Even in our application of voting rules to the recommendation setup,
we observe high user satisfaction scores. Now for organisational fairness, we
propose a bias metric which measures the aggregate ideological bias of a
recommended set of items (articles). Analysing the results obtained from voting
rule-based recommendation, we find that while the well-known voting rules are
better from the user side, they show high bias values and clearly not suitable
for organisational requirements of the platforms. Thus, there is a need to
build an encompassing mechanism by cohesively bridging ideas of user fairness
and organisational fairness. In this abstract paper, we intend to frame the
elementary ideas along with the clear motivation behind the requirement of such
a mechanism.
- Abstract(参考訳): recommender systemsは、いくつかのオンラインプラットフォームで最も広く利用されているサービスの1つで、エンドユーザに潜在的なアイテムを提案する。
これらのサービスは、特に下流サービスに社会的影響をもたらす能力がある場合に、フェアネスが関連する要因となる、異なる機械学習技術を使用することが多い。
したがって、ニュースメディアプラットフォームの非パーソナライズド(グローバル)レコメンデーション(例えば、twitter上のトップkトレンドトピック、ニュースプラットフォーム上のトップkニュースなど)に焦点を当て、ユーザーフェアネスと組織フェアネスの2つの特定の公平性(伝統的に別々に研究されている)について論じる。
ユーザフェアネスは、グローバルなレコメンデーションの場合、個々のユーザの選択を表現するというアイデアを捉えている一方で、組織フェアネスは政治的・イデオロギー的にバランスの取れたレコメンデーションセットを確実にしようと試みている。
これにより、ユーザの公平性はユーザ側の要件であり、組織の公平性はプラットフォーム側の要件となる。
ユーザフェアネスについては、社会的選択理論、すなわち、ユーザ選択をより良く表現するために知られている様々な投票ルールの手法を用いてテストする。
投票ルールを推薦設定に適用しても、高いユーザ満足度スコアを観察する。
そこで, 組織的公平性のために, 推奨項目群(論文)の総合的イデオロギーバイアスを測定するバイアスメトリックを提案する。
投票ルールに基づくレコメンデーションの結果を分析すると、よく知られた投票ルールはユーザー側より優れているが、高いバイアス値を示し、プラットフォームの組織的要件には明らかに適さないことが分かる。
したがって、ユーザフェアネスと組織フェアネスのアイデアを結束して包括的メカニズムを構築する必要がある。
本稿では,このようなメカニズムの要件の背景にあるモチベーションの明確化とともに,基本概念を体系化する。
関連論文リスト
- User-item fairness tradeoffs in recommendations [0.7490658564954134]
ユーザとアイテムの公平度を目標としたリコメンデーションのモデルを構築した。
a) ユーザの嗜好が多様である場合, 「自由」な項目とユーザフェアネスが存在する場合, および, (b) 好ましくない利用者は, 項目フェアネスの制約によって特に不利になる可能性がある。
論文 参考訳(メタデータ) (2024-12-05T18:59:51Z) - User Welfare Optimization in Recommender Systems with Competing Content Creators [65.25721571688369]
本研究では,コンテンツ制作者間での競争ゲーム環境下で,システム側ユーザ福祉の最適化を行う。
本稿では,推奨コンテンツの満足度に基づいて,各ユーザの重みの列を動的に計算する,プラットフォームのためのアルゴリズムソリューションを提案する。
これらの重みはレコメンデーションポリシーやポストレコメンデーション報酬を調整するメカニズムの設計に利用され、それによってクリエイターのコンテンツ制作戦略に影響を与える。
論文 参考訳(メタデータ) (2024-04-28T21:09:52Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Towards Personalized Fairness based on Causal Notion [18.5897206797918]
本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
論文 参考訳(メタデータ) (2021-05-20T15:24:34Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Exploring User Opinions of Fairness in Recommender Systems [13.749884072907163]
ユーザーが推奨する公平な待遇の考えは何なのかを尋ねる。
公平性に対するユーザの意見の相違や変化の原因となるものを分析する。
論文 参考訳(メタデータ) (2020-03-13T19:44:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。