論文の概要: Using Simple Incentives to Improve Two-Sided Fairness in Ridesharing
Systems
- arxiv url: http://arxiv.org/abs/2303.14332v1
- Date: Sat, 25 Mar 2023 02:24:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 20:40:11.354184
- Title: Using Simple Incentives to Improve Two-Sided Fairness in Ridesharing
Systems
- Title(参考訳): 簡易インセンティブによるライドシェアリングシステムの2面公正性向上
- Authors: Ashwin Kumar, Yevgeniy Vorobeychik, William Yeoh
- Abstract要約: 我々は、このILPの定式化の一環として、オンラインで実装できるシンプルなインセンティブに基づくフェアネススキームを提案する。
乗客グループとドライバーフェアネスの2つの異なるユースケースに対して、これらのフェアネスインセンティブをどのように定式化できるかを示す。
- 参考スコア(独自算出の注目度): 27.34946988130242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art order dispatching algorithms for ridesharing batch passenger
requests and allocate them to a fleet of vehicles in a centralized manner,
optimizing over the estimated values of each passenger-vehicle matching using
integer linear programming (ILP). Using good estimates of future values, such
ILP-based approaches are able to significantly increase the service rates
(percentage of requests served) for a fixed fleet of vehicles. However, such
approaches that focus solely on maximizing efficiency can lead to disparities
for both drivers (e.g., income inequality) and passengers (e.g., inequality of
service for different groups). Existing approaches that consider fairness only
do it for naive assignment policies, require extensive training, or look at
only single-sided fairness. We propose a simple incentive-based fairness scheme
that can be implemented online as a part of this ILP formulation that allows us
to improve fairness over a variety of fairness metrics. Deriving from a lens of
variance minimization, we describe how these fairness incentives can be
formulated for two distinct use cases for passenger groups and driver fairness.
We show that under mild conditions, our approach can guarantee an improvement
in the chosen metric for the worst-off individual. We also show empirically
that our Simple Incentives approach significantly outperforms prior art,
despite requiring no retraining; indeed, it often leads to a large improvement
over the state-of-the-art fairness-aware approach in both overall service rate
and fairness.
- Abstract(参考訳): 配車バッチの乗客要求を集中的に処理し、各乗用車マッチングの推定値を整数線形計画(ilp)を用いて最適化する、最先端の配車アルゴリズム。
将来の価値を適切に見積もることで、ICPベースのアプローチは、固定された車両のサービスレート(要求のパーセント)を大幅に向上させることができる。
しかし、効率の最大化にのみ焦点をあてるそのようなアプローチは、ドライバー(例えば、所得不平等)と乗客(例えば、異なるグループのサービス不平等)の両方に格差をもたらす可能性がある。
公平性を検討する既存のアプローチは、素直な割り当てポリシーのみしか行わないし、広範なトレーニングを必要とするし、一方的な公平性だけを見る必要がある。
我々は,このirpの定式化の一環として,オンライン上で実装可能な簡易なインセンティブに基づく公平性スキームを提案する。
分散最小化のレンズから導かれるこのフェアネスインセンティブは、乗客グループとドライバーフェアネスの2つの異なるユースケースに対してどのように定式化されるかを記述する。
穏やかな条件下では、このアプローチは最悪の個人に対して選択された指標の改善を保証できることを示します。
また、私たちのSimple Incentivesアプローチは、再トレーニングを必要とせず、先行技術よりも大幅に優れており、実際、サービス率と公正性の両方において、最先端の公正なアプローチよりも大幅に改善されていることも実証的に示しています。
関連論文リスト
- FairLoRA: Unpacking Bias Mitigation in Vision Models with Fairness-Driven Low-Rank Adaptation [3.959853359438669]
低ランク適応のための新しいフェアネス特化正規化器であるFairLoRAについて紹介する。
以上の結果から,偏見を緩和するためのより高いランクの必要性は普遍的ではなく,事前学習モデルやデータセット,タスクといった要因に依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-22T18:50:36Z) - Cooperation and Fairness in Multi-Agent Reinforcement Learning [6.164771707307928]
移動・輸送システムの資源に制約のある環境では、公平さを犠牲にして効率性を実現することができる。
マルチエージェント強化学習(MARL)を用いた分散エージェント群に対する公平なマルチエージェントナビゲーションの問題を考える。
このモデルでは, ランダムな代入を用いて訓練したベースラインに対して, 効率が14%向上し, 公平性が5%向上することがわかった。
論文 参考訳(メタデータ) (2024-10-19T00:10:52Z) - Promoting Two-sided Fairness in Dynamic Vehicle Routing Problem [21.148097893483406]
DVRPには、顧客に対してサービスを提供するサービスプロバイダと、異なる場所からの要求を集める顧客という2つの利害関係者が含まれている。
本稿では,遺伝的アルゴリズムを実用性にのみ焦点を絞った目的から,両面の公平性を含む多目的へと拡張する,両面の公平性を考慮した遺伝的アルゴリズム (2FairGA) を提案する。
論文 参考訳(メタデータ) (2024-05-29T15:24:28Z) - Fairness-Enhancing Vehicle Rebalancing in the Ride-hailing System [7.531863938542706]
配車産業の急速な成長は、世界中の都市交通に革命をもたらした。
その利益にもかかわらず、保存されていない地域社会が手頃な価格の配車サービスへのアクセシビリティに制限されているため、株式の懸念が生じる。
本稿では,新しい車両再バランス手法により,アルゴリズムとライダーの公正性を両立することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-29T23:02:34Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Data-Driven Methods for Balancing Fairness and Efficiency in
Ride-Pooling [10.613763106603272]
配車プラットフォームにおける不平等を低減させる2つの方法について検討する。
まず,運転者側フェアネスの最適化は,利用者数で最先端のモデルよりも優れていることがわかった。
第二に、収入の再分配を、ドライバーに収入の$r$を抑え、残りを再分配プールに寄付することで、所得不平等と戦う方法として検討する。
論文 参考訳(メタデータ) (2021-10-07T14:53:37Z) - Efficiency, Fairness, and Stability in Non-Commercial Peer-to-Peer
Ridesharing [84.47891614815325]
本稿は、P2Pライドシェアリングにおける中核的な問題である、ライダーとドライバーのマッチングに焦点を当てる。
P2Pライドシェアリングにおける公平性と安定性の新たな概念を紹介する。
結果は、妥当な計算時間で、公平で安定した解が得られることを示唆している。
論文 参考訳(メタデータ) (2021-10-04T02:14:49Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。