論文の概要: Dynamic fairness-aware recommendation through multi-agent social choice
- arxiv url: http://arxiv.org/abs/2303.00968v1
- Date: Thu, 2 Mar 2023 05:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 16:00:16.097535
- Title: Dynamic fairness-aware recommendation through multi-agent social choice
- Title(参考訳): マルチエージェント社会選択によるダイナミックフェアネス・アウェア・レコメンデーション
- Authors: Amanda Aird, Paresha Farastu, Joshua Sun, Amy Voida, Nicholas Mattei,
Robin Burke
- Abstract要約: 我々は、現実世界のアプリケーション設定における公平性、特にパーソナライズされたレコメンデーションの文脈において、より複雑で多面的であると主張している。
本稿では,2段階の社会的選択問題として,推薦システムにおけるマルチステークホルダフェアネスを定式化するモデルを提案する。
- 参考スコア(独自算出の注目度): 18.814419134205192
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Algorithmic fairness in the context of personalized recommendation presents
significantly different challenges to those commonly encountered in
classification tasks. Researchers studying classification have generally
considered fairness to be a matter of achieving equality of outcomes between a
protected and unprotected group, and built algorithmic interventions on this
basis. We argue that fairness in real-world application settings in general,
and especially in the context of personalized recommendation, is much more
complex and multi-faceted, requiring a more general approach. We propose a
model to formalize multistakeholder fairness in recommender systems as a two
stage social choice problem. In particular, we express recommendation fairness
as a novel combination of an allocation and an aggregation problem, which
integrate both fairness concerns and personalized recommendation provisions,
and derive new recommendation techniques based on this formulation. Simulations
demonstrate the ability of the framework to integrate multiple fairness
concerns in a dynamic way.
- Abstract(参考訳): パーソナライズドレコメンデーションの文脈におけるアルゴリズム的公平性は、分類タスクでよく遭遇する人々とは大きく異なる課題を示している。
分類を研究する研究者は一般に、公正性は保護されたグループと保護されていないグループの間の結果の平等を達成する問題であるとみなし、この基準に基づいてアルゴリズムによる介入を構築した。
私たちは、現実世界のアプリケーション全般、特にパーソナライズドレコメンデーションの文脈における公平性は、より複雑で多面的であり、より一般的なアプローチを必要とすると主張している。
2段階の社会的選択問題として,レコメンダシステムにおけるマルチテイクホルダフェアネスを定式化するモデルを提案する。
特に,公平性問題とパーソナライズド・レコメンデーション規定の両方を統合したアロケーション問題とアグリゲーション問題の新たな組み合わせとしてレコメンデーション・フェアネスを表現し,この定式化に基づく新しいレコメンデーション手法を導出する。
シミュレーションは、フレームワークが動的に複数の公正な関心事を統合する能力を示している。
関連論文リスト
- Social Choice for Heterogeneous Fairness in Recommendation [9.753088666705985]
推薦システムにおけるアルゴリズムの公正性は、様々な利害関係者のニーズによく注意する必要がある。
それまでの作業はしばしば、公正性の固定された単目的の定義によって制限されてきた。
我々の研究は、計算社会の選択の観点からのフェアネスを推奨する。
論文 参考訳(メタデータ) (2024-10-06T17:01:18Z) - Exploring Social Choice Mechanisms for Recommendation Fairness in SCRUF [11.43931298398417]
フェアネス問題の社会的選択の定式化は、フェアネスを意識したリコメンデーションに代わる、柔軟で多面的な代替手段を提供する。
選択と割り当ての異なるクラスが、異なるが一貫した公平さ/正確さのトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2023-09-10T17:47:21Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z) - Instance-Dependent Complexity of Contextual Bandits and Reinforcement
Learning: A Disagreement-Based Perspective [104.67295710363679]
古典的なマルチアームバンディット問題において、インスタンス依存アルゴリズムは、ベストとセカンドベストのアーム間のギャップで「容易」な問題のパフォーマンスを向上させる。
我々は、インスタンス依存の後悔境界を得るのに十分かつ必要である複雑性尺度のファミリーを導入する。
次に、可能な限りギャップに適応する新しいオラクル効率アルゴリズムを導入し、最悪の場合にはミニマックスレートを得る。
論文 参考訳(メタデータ) (2020-10-07T01:33:06Z) - Simultaneous Relevance and Diversity: A New Recommendation Inference
Approach [81.44167398308979]
本稿では,新しいCF推論手法である負対陽性を導入することにより,一般協調フィルタリング(CF)を拡張した新しい手法を提案する。
我々のアプローチは、様々な高度なレベルでの幅広い推奨シナリオ/ユースケースに適用できる。
公開データセットと実世界の生産データに関する分析と実験により、我々のアプローチは、関連性および多様性に関する既存の手法を同時に上回ることを示した。
論文 参考訳(メタデータ) (2020-09-27T22:20:12Z) - "And the Winner Is...": Dynamic Lotteries for Multi-group Fairness-Aware
Recommendation [37.35485045640196]
我々は、以前の文献は単純で一様であり、フェアネスの仮定の単次元の概念に基づいていたと論じる。
私たちは、多元的定義と交差する保護されたグループ間の正確性と公平性の間のトレードオフに参入する設計上の決定を明確に表現します。
公正な関心事を選択するための宝くじに基づくメカニズムを定式化し、その性能を2つの推奨領域で実証する。
論文 参考訳(メタデータ) (2020-09-05T20:15:14Z) - HyperFair: A Soft Approach to Integrating Fairness Criteria [17.770533330914102]
我々は,ハイブリッドレコメンデータシステムにおいて,ソフトフェアネス制約を強制するフレームワークであるHyperFairを紹介する。
まず,確率的ソフトロジックレコメンデータシステムテンプレートの拡張として提案する手法を提案する。
複数のHyperFairハイブリッドレコメンデータを実装することで,私たちのアプローチを実証的に検証し,最先端のフェアレコメンデータと比較する。
論文 参考訳(メタデータ) (2020-09-05T05:00:06Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。