論文の概要: Controlling Fairness and Bias in Dynamic Learning-to-Rank
- arxiv url: http://arxiv.org/abs/2005.14713v1
- Date: Fri, 29 May 2020 17:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:57:35.948675
- Title: Controlling Fairness and Bias in Dynamic Learning-to-Rank
- Title(参考訳): 動的学習における公平性とバイアスの制御
- Authors: Marco Morik, Ashudeep Singh, Jessica Hong, Thorsten Joachims
- Abstract要約: 暗黙のフィードバックデータからランキング関数を学習しながら、グループフェアネスの概念を確実にする学習アルゴリズムを提案する。
このアルゴリズムは、公平さと実用性の両方のために、偏見のない推定器を統合するコントローラの形をとっている。
厳密な理論基盤と収束保証に加えて、アルゴリズムが極めて実用的で堅牢であることが実証的に明らかになった。
- 参考スコア(独自算出の注目度): 31.41843594914603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rankings are the primary interface through which many online platforms match
users to items (e.g. news, products, music, video). In these two-sided markets,
not only the users draw utility from the rankings, but the rankings also
determine the utility (e.g. exposure, revenue) for the item providers (e.g.
publishers, sellers, artists, studios). It has already been noted that
myopically optimizing utility to the users, as done by virtually all
learning-to-rank algorithms, can be unfair to the item providers. We,
therefore, present a learning-to-rank approach for explicitly enforcing
merit-based fairness guarantees to groups of items (e.g. articles by the same
publisher, tracks by the same artist). In particular, we propose a learning
algorithm that ensures notions of amortized group fairness, while
simultaneously learning the ranking function from implicit feedback data. The
algorithm takes the form of a controller that integrates unbiased estimators
for both fairness and utility, dynamically adapting both as more data becomes
available. In addition to its rigorous theoretical foundation and convergence
guarantees, we find empirically that the algorithm is highly practical and
robust.
- Abstract(参考訳): ランキングは、多くのオンラインプラットフォームがユーザーとアイテム(ニュース、製品、音楽、ビデオなど)をマッチングする主要なインターフェースである。
これらの2つの市場では、ユーザーがランキングからユーティリティを引き出すだけでなく、ランキングはアイテムプロバイダ(パブリッシャー、販売者、アーティスト、スタジオなど)のユーティリティ(露出、収益など)を決定する。
ほぼすべての学習からランクのアルゴリズムが行なっているように、ミオプティックにユーザに対してユーティリティを最適化することは、アイテムプロバイダにとって不公平である、とすでに指摘されている。
そこで本稿では,商品群(例えば,同一出版社による記事,同一アーティストによるトラック)にメリットに基づく公正性を保証するための,学習からランクへのアプローチを提案する。
特に,暗黙のフィードバックデータからランク付け関数を同時に学習しながら,償却されたグループフェアネスの概念を保証する学習アルゴリズムを提案する。
このアルゴリズムは、公平性と有用性の両方のために偏りのない推定器を統合するコントローラの形をとり、より多くのデータが利用可能になるにつれて両方を動的に適応させる。
厳密な理論的基礎と収束保証に加えて、このアルゴリズムが極めて実用的かつ堅牢であることは実証的に明らかである。
関連論文リスト
- TRIVEA: Transparent Ranking Interpretation using Visual Explanation of
Black-Box Algorithmic Rankers [4.336037935247747]
ランク付けスキームは、どこで勉強するか、誰を雇うか、何を買うかなど、多くの現実世界の意思決定を促します。
これらの決定の核心は、データエンティティの順序を決定する不透明なランキングスキームである。
我々は、利用可能なデータから学習するアルゴリズム的なランク付けと、説明可能なAI(XAI)手法を用いて学習したランキング差について人間の推論を行うことで、ランキング解釈における透明性の実現を目指している。
論文 参考訳(メタデータ) (2023-08-28T16:58:44Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - Fast online ranking with fairness of exposure [29.134493256287072]
このアルゴリズムは計算が高速で、ソート演算が支配的であり、メモリ効率が良く、理論的な保証も強いことを示します。
ユーザ側のパフォーマンスを最大化する基本方針と比較して,提案アルゴリズムは,計算オーバーヘッドが無視できるような推奨事項に,露出基準の複雑な公平性を組み込むことができる。
論文 参考訳(メタデータ) (2022-09-13T12:35:36Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - User Fairness, Item Fairness, and Diversity for Rankings in Two-Sided
Markets [28.537935838669423]
ユーザフェアネス、アイテムフェアネス、多様性は根本的に異なる概念であることを示す。
3つのデシラタを明示的に強制する最初のランク付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-04T02:53:09Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - SetRank: A Setwise Bayesian Approach for Collaborative Ranking from
Implicit Feedback [50.13745601531148]
提案手法は,提案システムにおける暗黙的フィードバックの特性に対応するために,協調的ランキング(SeetRank)のためのセッティングワイドベイズ的手法を提案する。
具体的には、SetRankは、新しい設定された選好比較の後方確率を最大化することを目的としている。
また、SetRankの理論解析により、余剰リスクの境界が$sqrtM/N$に比例できることを示す。
論文 参考訳(メタデータ) (2020-02-23T06:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。