論文の概要: A Fairness-Oriented Reinforcement Learning Approach for the Operation and Control of Shared Micromobility Services
- arxiv url: http://arxiv.org/abs/2403.15780v1
- Date: Sat, 23 Mar 2024 09:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 21:02:48.412124
- Title: A Fairness-Oriented Reinforcement Learning Approach for the Operation and Control of Shared Micromobility Services
- Title(参考訳): マイクロモビリティ共有サービスの運用と制御のためのフェアネス指向強化学習手法
- Authors: Luca Vittorio Piron, Matteo Cederle, Marina Ceccon, Federico Chiariotti, Alessandro Fabris, Marco Fabris, Gian Antonio Susto,
- Abstract要約: 本稿では,共有マイクロモビリティサービスの運用と制御における性能最適化とアルゴリズムフェアネスのバランスに関する先駆的な研究を紹介する。
提案手法は, Gini 指数によって測定された等値な結果が, 異なる駅カテゴリーで達成できることを特徴としている。
本稿では,共有マイクロモビリティサービスのための整形制御戦略における公平性の検討の重要性を強調した。
- 参考スコア(独自算出の注目度): 46.1428063182192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Machine Learning systems become increasingly popular across diverse application domains, including those with direct human implications, the imperative of equity and algorithmic fairness has risen to prominence in the Artificial Intelligence community. On the other hand, in the context of Shared Micromobility Systems, the exploration of fairness-oriented approaches remains limited. Addressing this gap, we introduce a pioneering investigation into the balance between performance optimization and algorithmic fairness in the operation and control of Shared Micromobility Services. Our study leverages the Q-Learning algorithm in Reinforcement Learning, benefiting from its convergence guarantees to ensure the robustness of our proposed approach. Notably, our methodology stands out for its ability to achieve equitable outcomes, as measured by the Gini index, across different station categories--central, peripheral, and remote. Through strategic rebalancing of vehicle distribution, our approach aims to maximize operator performance while simultaneously upholding fairness principles for users. In addition to theoretical insights, we substantiate our findings with a case study or simulation based on synthetic data, validating the efficacy of our approach. This paper underscores the critical importance of fairness considerations in shaping control strategies for Shared Micromobility Services, offering a pragmatic framework for enhancing equity in urban transportation systems.
- Abstract(参考訳): 機械学習システムが、直接人間に影響を及ぼすものを含む様々なアプリケーションドメインで人気が高まるにつれて、公平性とアルゴリズム的公正性の衝動が人工知能コミュニティで顕著になってきている。
一方、共有マイクロモビリティシステムにおいては、フェアネス指向のアプローチの探索は依然として限られている。
このギャップに対処するために、我々は、共有マイクロモビリティサービスの運用と制御における性能最適化とアルゴリズムフェアネスのバランスに関する先駆的な研究を紹介する。
本研究は強化学習におけるQ-Learningアルゴリズムを活用し,その収束保証を利用して提案手法の堅牢性を確保する。
特に,この手法は, 中央, 周辺, 遠隔の異なる駅カテゴリーにおいて, ジニ指数によって測定された等値な結果を達成できることが注目されている。
本研究は,車両流通の戦略的再バランスを通じて,利用者の公正性の原則を同時に維持しつつ,運転者のパフォーマンスを最大化することを目的とする。
理論的知見に加えて, ケーススタディやシミュレーションを用いて, 提案手法の有効性を検証した。
本稿では,都市交通システムにおけるエクイティ向上のための実用的枠組みを提供する共有マイクロモビリティ・サービスにおける公平性評価の重要性を指摘する。
関連論文リスト
- Attention-Driven Multi-Agent Reinforcement Learning: Enhancing Decisions with Expertise-Informed Tasks [1.7689232761699216]
我々は,MARL(Multi-Agent Reinforcement Learning)の強化のための代替手法を提案する。
本手法は,ドメイン固有の専門知識を学習プロセスに組み込むことに重点を置いている。
注意に基づくアプローチが,MARLトレーニングプロセスの効率化に有効であることを示す。
論文 参考訳(メタデータ) (2024-04-08T20:06:33Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Efficient Reinforcement Learning from Partial Observability [80.11643679551042]
ほとんどの実世界の強化学習アプリケーションでは、状態情報は部分的にしか観測できないため、マルコフ決定プロセスの仮定を破る。
我々は、部分的な観察から実践的な強化学習のためのコヒーレントな枠組みと抽出可能なアルゴリズムアプローチへと導く表現に基づく視点を開発する。
提案アルゴリズムは,様々なベンチマークで部分的な観察を行い,最先端の性能を超えることができることを実証的に実証した。
論文 参考訳(メタデータ) (2023-11-20T23:56:58Z) - Mimicking Better by Matching the Approximate Action Distribution [48.81067017094468]
そこで我々は,Imitation Learning from Observationsのための新しい,サンプル効率の高いオンライン政治アルゴリズムMAADを紹介する。
我々は、専門家のパフォーマンスを達成するためには、かなり少ないインタラクションが必要であり、現在最先端の政治手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T12:43:47Z) - Strategy Synthesis in Markov Decision Processes Under Limited Sampling
Access [3.441021278275805]
グレーボックスマルコフ決定プロセス(MDP)によってモデル化された環境において、エージェントの作用の影響は後継状態の点で知られているが、関連する合成は知られていない。
本稿では,区間型MDPを内部モデルとして用いた強化学習により,グレーボックス型MDPの戦略アルゴリズムを考案する。
論文 参考訳(メタデータ) (2023-03-22T16:58:44Z) - A Deep Reinforcement Learning Approach to Marginalized Importance
Sampling with the Successor Representation [61.740187363451746]
マージナライズド・プライバシ・サンプリング(MIS)は、ターゲットポリシーのステートアクション占有率とサンプリング分布の密度比を測定する。
我々は,MISと深層強化学習のギャップを,目標方針の後継表現から密度比を計算することによって埋める。
我々は,Atari環境とMuJoCo環境に対するアプローチの実証的性能を評価した。
論文 参考訳(メタデータ) (2021-06-12T20:21:38Z) - Improved Context-Based Offline Meta-RL with Attention and Contrastive
Learning [1.3106063755117399]
SOTA OMRLアルゴリズムの1つであるFOCALを、タスク内注意メカニズムとタスク間コントラスト学習目標を組み込むことで改善します。
理論解析と実験を行い、エンドツーエンドおよびモデルフリーの優れた性能、効率、堅牢性を実証します。
論文 参考訳(メタデータ) (2021-02-22T05:05:16Z) - Fairness and Robustness in Invariant Learning: A Case Study in Toxicity
Classification [13.456851070400024]
不変リスク最小化(Invariant Risk Minimization、IRM)は、因果発見にインスパイアされた手法を用いて、堅牢な予測子を見つけるドメイン一般化アルゴリズムである。
IRMは経験的リスク最小化法(ERM)よりも分布外精度と公平性を向上できることを示す。
論文 参考訳(メタデータ) (2020-11-12T16:42:14Z) - Spectrum-Guided Adversarial Disparity Learning [52.293230153385124]
本稿では,新たなエンド・ツー・エンドの知識指向学習フレームワークを提案する。
2つの競合符号化分布を用いてクラス条件付きクラス内不一致を表現し、学習された不一致を識別することで精製された潜伏符号を学習する。
4つのHARベンチマークデータセットに対する実験により,提案手法の頑健性と,最先端の手法による一般化が実証された。
論文 参考訳(メタデータ) (2020-07-14T05:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。