論文の概要: Using Simple Incentives to Improve Two-Sided Fairness in Ridesharing
Systems
- arxiv url: http://arxiv.org/abs/2303.14332v1
- Date: Sat, 25 Mar 2023 02:24:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 20:40:11.354184
- Title: Using Simple Incentives to Improve Two-Sided Fairness in Ridesharing
Systems
- Title(参考訳): 簡易インセンティブによるライドシェアリングシステムの2面公正性向上
- Authors: Ashwin Kumar, Yevgeniy Vorobeychik, William Yeoh
- Abstract要約: 我々は、このILPの定式化の一環として、オンラインで実装できるシンプルなインセンティブに基づくフェアネススキームを提案する。
乗客グループとドライバーフェアネスの2つの異なるユースケースに対して、これらのフェアネスインセンティブをどのように定式化できるかを示す。
- 参考スコア(独自算出の注目度): 27.34946988130242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art order dispatching algorithms for ridesharing batch passenger
requests and allocate them to a fleet of vehicles in a centralized manner,
optimizing over the estimated values of each passenger-vehicle matching using
integer linear programming (ILP). Using good estimates of future values, such
ILP-based approaches are able to significantly increase the service rates
(percentage of requests served) for a fixed fleet of vehicles. However, such
approaches that focus solely on maximizing efficiency can lead to disparities
for both drivers (e.g., income inequality) and passengers (e.g., inequality of
service for different groups). Existing approaches that consider fairness only
do it for naive assignment policies, require extensive training, or look at
only single-sided fairness. We propose a simple incentive-based fairness scheme
that can be implemented online as a part of this ILP formulation that allows us
to improve fairness over a variety of fairness metrics. Deriving from a lens of
variance minimization, we describe how these fairness incentives can be
formulated for two distinct use cases for passenger groups and driver fairness.
We show that under mild conditions, our approach can guarantee an improvement
in the chosen metric for the worst-off individual. We also show empirically
that our Simple Incentives approach significantly outperforms prior art,
despite requiring no retraining; indeed, it often leads to a large improvement
over the state-of-the-art fairness-aware approach in both overall service rate
and fairness.
- Abstract(参考訳): 配車バッチの乗客要求を集中的に処理し、各乗用車マッチングの推定値を整数線形計画(ilp)を用いて最適化する、最先端の配車アルゴリズム。
将来の価値を適切に見積もることで、ICPベースのアプローチは、固定された車両のサービスレート(要求のパーセント)を大幅に向上させることができる。
しかし、効率の最大化にのみ焦点をあてるそのようなアプローチは、ドライバー(例えば、所得不平等)と乗客(例えば、異なるグループのサービス不平等)の両方に格差をもたらす可能性がある。
公平性を検討する既存のアプローチは、素直な割り当てポリシーのみしか行わないし、広範なトレーニングを必要とするし、一方的な公平性だけを見る必要がある。
我々は,このirpの定式化の一環として,オンライン上で実装可能な簡易なインセンティブに基づく公平性スキームを提案する。
分散最小化のレンズから導かれるこのフェアネスインセンティブは、乗客グループとドライバーフェアネスの2つの異なるユースケースに対してどのように定式化されるかを記述する。
穏やかな条件下では、このアプローチは最悪の個人に対して選択された指標の改善を保証できることを示します。
また、私たちのSimple Incentivesアプローチは、再トレーニングを必要とせず、先行技術よりも大幅に優れており、実際、サービス率と公正性の両方において、最先端の公正なアプローチよりも大幅に改善されていることも実証的に示しています。
関連論文リスト
- Fairness-Enhancing Vehicle Rebalancing in the Ride-hailing System [7.531863938542706]
配車産業の急速な成長は、世界中の都市交通に革命をもたらした。
その利益にもかかわらず、保存されていない地域社会が手頃な価格の配車サービスへのアクセシビリティに制限されているため、株式の懸念が生じる。
本稿では,新しい車両再バランス手法により,アルゴリズムとライダーの公正性を両立することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-29T23:02:34Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Optimal Transport of Binary Classifiers to Fairness [16.588468396705366]
予測力と公平性の間の効果的なトレードオフを実現するために、最適輸送公正性(OTF)が利用できることを示す。
実験により、OTFは予測力と公平性の間の効果的なトレードオフを達成することができることが示された。
論文 参考訳(メタデータ) (2022-02-08T12:16:24Z) - Data-Driven Methods for Balancing Fairness and Efficiency in
Ride-Pooling [10.613763106603272]
配車プラットフォームにおける不平等を低減させる2つの方法について検討する。
まず,運転者側フェアネスの最適化は,利用者数で最先端のモデルよりも優れていることがわかった。
第二に、収入の再分配を、ドライバーに収入の$r$を抑え、残りを再分配プールに寄付することで、所得不平等と戦う方法として検討する。
論文 参考訳(メタデータ) (2021-10-07T14:53:37Z) - Efficiency, Fairness, and Stability in Non-Commercial Peer-to-Peer
Ridesharing [84.47891614815325]
本稿は、P2Pライドシェアリングにおける中核的な問題である、ライダーとドライバーのマッチングに焦点を当てる。
P2Pライドシェアリングにおける公平性と安定性の新たな概念を紹介する。
結果は、妥当な計算時間で、公平で安定した解が得られることを示唆している。
論文 参考訳(メタデータ) (2021-10-04T02:14:49Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。