論文の概要: Rawlsian Fairness in Online Bipartite Matching: Two-sided, Group, and
Individual
- arxiv url: http://arxiv.org/abs/2201.06021v3
- Date: Mon, 5 Jun 2023 00:06:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 05:51:57.151209
- Title: Rawlsian Fairness in Online Bipartite Matching: Two-sided, Group, and
Individual
- Title(参考訳): オンライン2部マッチングにおけるrawlsian fairness:2面,グループ,個人
- Authors: Seyed A. Esmaeili, Sharmila Duppala, Davidson Cheng, Vedant Nanda,
Aravind Srinivasan, and John P. Dickerson
- Abstract要約: オンラインの双方向マッチングプラットフォームはユビキタスであり、クラウドソーシングやライドシェアリングといった重要な分野のアプリケーションを見つける。
本稿では,既存業務を一般化し,市場双方に公平な待遇保証を同時に提供する。
我々のアルゴリズムには理論的保証があり、三辺のユーティリティ間のトレードオフのバランスをとるために調整可能なパラメータがある。
- 参考スコア(独自算出の注目度): 25.391491567929336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online bipartite-matching platforms are ubiquitous and find applications in
important areas such as crowdsourcing and ridesharing. In the most general
form, the platform consists of three entities: two sides to be matched and a
platform operator that decides the matching. The design of algorithms for such
platforms has traditionally focused on the operator's (expected) profit. Since
fairness has become an important consideration that was ignored in the existing
algorithms a collection of online matching algorithms have been developed that
give a fair treatment guarantee for one side of the market at the expense of a
drop in the operator's profit. In this paper, we generalize the existing work
to offer fair treatment guarantees to both sides of the market simultaneously,
at a calculated worst case drop to operator profit. We consider group and
individual Rawlsian fairness criteria. Moreover, our algorithms have
theoretical guarantees and have adjustable parameters that can be tuned as
desired to balance the trade-off between the utilities of the three sides. We
also derive hardness results that give clear upper bounds over the performance
of any algorithm.
- Abstract(参考訳): オンラインの双方向マッチングプラットフォームはユビキタスであり、クラウドソーシングやライドシェアリングといった重要な分野のアプリケーションを見つける。
最も一般的な形式では、プラットフォームはマッチする2つの側面とマッチングを決定するプラットフォームオペレータの3つのエンティティで構成される。
このようなプラットフォームのためのアルゴリズムの設計は、伝統的にオペレーターの(予想される)利益に焦点を当ててきた。
既存のアルゴリズムで無視された公平性は重要な考慮事項となっているため、オペレータの利益の低下を犠牲にして市場の片側に対して公平な待遇を保証するオンラインマッチングアルゴリズムのコレクションが開発されている。
本稿では,既存の業務を一般化し,市場双方に公平な治療保証を同時に提供し,オペレーター利益への最悪の下降を計算した。
グループおよび個人Rawlsianの公正度基準を検討する。
さらに、我々のアルゴリズムは理論的な保証があり、三辺のユーティリティ間のトレードオフのバランスをとるために調整可能なパラメータを持つ。
また,任意のアルゴリズムの性能に対して高い上限を与える硬度結果も導出する。
関連論文リスト
- Fair Allocation in Dynamic Mechanism Design [57.66441610380448]
競売業者が各ラウンドの買い手グループに、合計で$T$で分けない商品を販売している問題を考える。
競売人は、各グループの最低平均配分を保証する公正な制約に固執しつつ、割引された全体の収益を最大化することを目的としている。
論文 参考訳(メタデータ) (2024-05-31T19:26:05Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Sampling Individually-Fair Rankings that are Always Group Fair [9.333939443470944]
公正ランキングタスクは、グループフェアネスの制約を満たすために、実用性を最大化するために一連のアイテムをランク付けするよう要求する。
近年の研究では、品物の効用の不確かさが不公平の原因となっている。
我々は,各アウトプットランキングがグループフェアであることを保証しながら,個別のフェア分布からランキングを抽出する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-21T01:26:34Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Competition, Alignment, and Equilibria in Digital Marketplaces [97.03797129675951]
プラットフォームアクションがバンディットアルゴリズムであり,両プラットフォームがユーザ参加を競うデュオポリー市場について検討する。
私たちの主な発見は、この市場における競争は、市場の結果をユーザーユーティリティと完全に一致させるものではないということです。
論文 参考訳(メタデータ) (2022-08-30T17:43:58Z) - Counterfactual Fairness Is Basically Demographic Parity [0.0]
公正な意思決定は、倫理的に機械学習アルゴリズムを社会的設定で実装する上で重要である。
また, 対実的公正性を満たすアルゴリズムが, 人口統計学的平等を満足することを示す。
我々は、保護グループ内の個人の秩序を維持するという具体的な公正目標を定式化する。
論文 参考訳(メタデータ) (2022-08-07T23:38:59Z) - Efficient Algorithms For Fair Clustering with a New Fairness Notion [5.21410307583181]
我々は、Chierichettiらによって最初に導入されたフェアクラスタリングの問題を再考する。
既存のクラスタリングのソリューションはスケーラビリティが低いか、クラスタリングの目的と公平性のトレードオフを最適に達成できないかのいずれかです。
バランス特性を厳密に一般化し、細粒度効率とフェアネストレードオフを可能にする、$tau$-fair Fairnessと呼ばれる新しいフェアネスの概念を提案する。
論文 参考訳(メタデータ) (2021-09-02T04:52:49Z) - Learning Equilibria in Matching Markets from Bandit Feedback [139.29934476625488]
不確実性の下で安定した市場成果を学習するためのフレームワークとアルゴリズムを開発する。
私たちの研究は、大規模なデータ駆動の市場において、いつ、どのように安定したマッチングが生じるかを明らかにするための第一歩を踏み出します。
論文 参考訳(メタデータ) (2021-08-19T17:59:28Z) - User Fairness, Item Fairness, and Diversity for Rankings in Two-Sided
Markets [28.537935838669423]
ユーザフェアネス、アイテムフェアネス、多様性は根本的に異なる概念であることを示す。
3つのデシラタを明示的に強制する最初のランク付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-04T02:53:09Z) - Controlling Fairness and Bias in Dynamic Learning-to-Rank [31.41843594914603]
暗黙のフィードバックデータからランキング関数を学習しながら、グループフェアネスの概念を確実にする学習アルゴリズムを提案する。
このアルゴリズムは、公平さと実用性の両方のために、偏見のない推定器を統合するコントローラの形をとっている。
厳密な理論基盤と収束保証に加えて、アルゴリズムが極めて実用的で堅牢であることが実証的に明らかになった。
論文 参考訳(メタデータ) (2020-05-29T17:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。