論文の概要: A Fairness-Oriented Reinforcement Learning Approach for the Operation and Control of Shared Micromobility Services
- arxiv url: http://arxiv.org/abs/2403.15780v1
- Date: Sat, 23 Mar 2024 09:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 21:02:48.412124
- Title: A Fairness-Oriented Reinforcement Learning Approach for the Operation and Control of Shared Micromobility Services
- Title(参考訳): マイクロモビリティ共有サービスの運用と制御のためのフェアネス指向強化学習手法
- Authors: Luca Vittorio Piron, Matteo Cederle, Marina Ceccon, Federico Chiariotti, Alessandro Fabris, Marco Fabris, Gian Antonio Susto,
- Abstract要約: 本稿では,共有マイクロモビリティサービスの運用と制御における性能最適化とアルゴリズムフェアネスのバランスに関する先駆的な研究を紹介する。
提案手法は, Gini 指数によって測定された等値な結果が, 異なる駅カテゴリーで達成できることを特徴としている。
本稿では,共有マイクロモビリティサービスのための整形制御戦略における公平性の検討の重要性を強調した。
- 参考スコア(独自算出の注目度): 46.1428063182192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Machine Learning systems become increasingly popular across diverse application domains, including those with direct human implications, the imperative of equity and algorithmic fairness has risen to prominence in the Artificial Intelligence community. On the other hand, in the context of Shared Micromobility Systems, the exploration of fairness-oriented approaches remains limited. Addressing this gap, we introduce a pioneering investigation into the balance between performance optimization and algorithmic fairness in the operation and control of Shared Micromobility Services. Our study leverages the Q-Learning algorithm in Reinforcement Learning, benefiting from its convergence guarantees to ensure the robustness of our proposed approach. Notably, our methodology stands out for its ability to achieve equitable outcomes, as measured by the Gini index, across different station categories--central, peripheral, and remote. Through strategic rebalancing of vehicle distribution, our approach aims to maximize operator performance while simultaneously upholding fairness principles for users. In addition to theoretical insights, we substantiate our findings with a case study or simulation based on synthetic data, validating the efficacy of our approach. This paper underscores the critical importance of fairness considerations in shaping control strategies for Shared Micromobility Services, offering a pragmatic framework for enhancing equity in urban transportation systems.
- Abstract(参考訳): 機械学習システムが、直接人間に影響を及ぼすものを含む様々なアプリケーションドメインで人気が高まるにつれて、公平性とアルゴリズム的公正性の衝動が人工知能コミュニティで顕著になってきている。
一方、共有マイクロモビリティシステムにおいては、フェアネス指向のアプローチの探索は依然として限られている。
このギャップに対処するために、我々は、共有マイクロモビリティサービスの運用と制御における性能最適化とアルゴリズムフェアネスのバランスに関する先駆的な研究を紹介する。
本研究は強化学習におけるQ-Learningアルゴリズムを活用し,その収束保証を利用して提案手法の堅牢性を確保する。
特に,この手法は, 中央, 周辺, 遠隔の異なる駅カテゴリーにおいて, ジニ指数によって測定された等値な結果を達成できることが注目されている。
本研究は,車両流通の戦略的再バランスを通じて,利用者の公正性の原則を同時に維持しつつ,運転者のパフォーマンスを最大化することを目的とする。
理論的知見に加えて, ケーススタディやシミュレーションを用いて, 提案手法の有効性を検証した。
本稿では,都市交通システムにおけるエクイティ向上のための実用的枠組みを提供する共有マイクロモビリティ・サービスにおける公平性評価の重要性を指摘する。
関連論文リスト
- LOQA: Learning with Opponent Q-Learning Awareness [1.1666234644810896]
本稿では,エージェントの個々のユーティリティを最適化する分散型強化学習アルゴリズムであるLearning with Opponent Q-Learning Awareness (LOQA)を紹介する。
LOQAは、Iterated Prisoner's DilemmaやCoin Gameのようなベンチマークシナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-02T06:33:01Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering [16.808400593594435]
フェアクラスタリング,不確実性,代表性(FAL-CUR)を用いたフェアアクティブラーニングという新しい戦略を提案する。
FAL-CURは、均等化オッズの観点から、最先端の手法と比較して、公正度が15%から20%向上する。
A blation study is highlights the important role of fair clustering inserving fairness and the acquisition function in stabilizing the accuracy performance。
論文 参考訳(メタデータ) (2022-09-21T08:28:43Z) - Fair and Consistent Federated Learning [48.19977689926562]
フェデレートラーニング(FL)は、分散データソースから学習する能力に対する関心が高まっている。
本稿では,異なるローカルクライアント間で性能整合性とアルゴリズムフェアネスを協調的に検討するFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T01:56:08Z) - LiMIIRL: Lightweight Multiple-Intent Inverse Reinforcement Learning [5.1779694507922835]
多目的逆強化学習は、異なる意図のデモンストレーションを合理化するために報酬関数のアンサンブルを見つけようとする。
特徴空間における実演の事前クラスタリングに基づくウォームスタート戦略を提案する。
また、一般的な期待値差尺度を一般化するMI-IRL性能指標を提案する。
論文 参考訳(メタデータ) (2021-06-03T12:00:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。