論文の概要: A Fairness-Oriented Reinforcement Learning Approach for the Operation and Control of Shared Micromobility Services
- arxiv url: http://arxiv.org/abs/2403.15780v3
- Date: Fri, 17 Jan 2025 18:42:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:58:20.964519
- Title: A Fairness-Oriented Reinforcement Learning Approach for the Operation and Control of Shared Micromobility Services
- Title(参考訳): マイクロモビリティ共有サービスの運用と制御のためのフェアネス指向強化学習手法
- Authors: Matteo Cederle, Luca Vittorio Piron, Marina Ceccon, Federico Chiariotti, Alessandro Fabris, Marco Fabris, Gian Antonio Susto,
- Abstract要約: 本研究では,共有マイクロモビリティサービスにおける性能最適化とアルゴリズムフェアネスのバランスについて検討する。
提案手法は,Q-ラーニングを駆使して,Gini指数を用いて等価な結果を得る。
総合データを用いたケーススタディは、私たちの洞察を検証し、都市マイクロモビリティにおける公正の重要性を強調します。
- 参考スコア(独自算出の注目度): 46.1428063182192
- License:
- Abstract: As Machine Learning grows in popularity across various fields, equity has become a key focus for the AI community. However, fairness-oriented approaches are still underexplored in smart mobility. Addressing this gap, our study investigates the balance between performance optimization and algorithmic fairness in shared micromobility services providing a novel framework based on Reinforcement Learning. Exploiting Q-learning, the proposed methodology achieves equitable outcomes in terms of the Gini index across different areas characterized by their distance from central hubs. Through vehicle rebalancing, the provided scheme maximizes operator performance while ensuring fairness principles for users, reducing iniquity by up to 85% while only increasing costs by 30% (w.r.t. applying no equity adjustment). A case study with synthetic data validates our insights and highlights the importance of fairness in urban micromobility (source code: https://github.com/mcederle99/FairMSS.git).
- Abstract(参考訳): 機械学習がさまざまな分野で人気が高まっている中、AIコミュニティにとって、エクイティは重要な焦点となっている。
しかし、フェアネス指向のアプローチは、スマートモビリティにおいてまだ過小評価されている。
このギャップに対処するため,本研究では,Reinforcement Learningに基づく新しいフレームワークを提供する共有マイクロモビリティサービスにおいて,性能最適化とアルゴリズムフェアネスのバランスについて検討した。
提案手法は, 中央ハブからの距離が特徴の異なる領域にまたがるジーニ指数を用いて, 等価な結果を得る。
車両の再バランスを通じて、提供されたスキームは、運用者のパフォーマンスを最大化し、利用者の公正性の原則を保証し、不平等を最大85%削減し、コストを30%引き上げる(例えば、株式の調整は行わない)。
総合データを用いたケーススタディは、私たちの洞察を検証し、都市マイクロモビリティにおける公正の重要性を強調します(ソースコード: https://github.com/mcederle99/FairMSS.git)。
関連論文リスト
- LOQA: Learning with Opponent Q-Learning Awareness [1.1666234644810896]
本稿では,エージェントの個々のユーティリティを最適化する分散型強化学習アルゴリズムであるLearning with Opponent Q-Learning Awareness (LOQA)を紹介する。
LOQAは、Iterated Prisoner's DilemmaやCoin Gameのようなベンチマークシナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-02T06:33:01Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering [16.808400593594435]
フェアクラスタリング,不確実性,代表性(FAL-CUR)を用いたフェアアクティブラーニングという新しい戦略を提案する。
FAL-CURは、均等化オッズの観点から、最先端の手法と比較して、公正度が15%から20%向上する。
A blation study is highlights the important role of fair clustering inserving fairness and the acquisition function in stabilizing the accuracy performance。
論文 参考訳(メタデータ) (2022-09-21T08:28:43Z) - Fair and Consistent Federated Learning [48.19977689926562]
フェデレートラーニング(FL)は、分散データソースから学習する能力に対する関心が高まっている。
本稿では,異なるローカルクライアント間で性能整合性とアルゴリズムフェアネスを協調的に検討するFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T01:56:08Z) - LiMIIRL: Lightweight Multiple-Intent Inverse Reinforcement Learning [5.1779694507922835]
多目的逆強化学習は、異なる意図のデモンストレーションを合理化するために報酬関数のアンサンブルを見つけようとする。
特徴空間における実演の事前クラスタリングに基づくウォームスタート戦略を提案する。
また、一般的な期待値差尺度を一般化するMI-IRL性能指標を提案する。
論文 参考訳(メタデータ) (2021-06-03T12:00:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。