論文の概要: Inequality in Congestion Games with Learning Agents
- arxiv url: http://arxiv.org/abs/2601.20578v2
- Date: Fri, 30 Jan 2026 09:25:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 14:22:45.301468
- Title: Inequality in Congestion Games with Learning Agents
- Title(参考訳): 学習エージェントによる混雑ゲームの不平等
- Authors: Dimitris Michailidis, Sennay Ghebreab, Fernando P. Santos,
- Abstract要約: ネットワークの構造だけでなく,通勤者による適応の仕方にも相違があることが示される。
潜在的効率性と公平性のトレードオフを捉えるために,学習中の非効率性の尺度であるPrice of Learning (PoL)を導入する。
シミュレーションにより,ネットワーク拡張が同時に効率を向上し,不等式を増幅できることが示唆された。
- 参考スコア(独自算出の注目度): 49.16654883862325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Who benefits from expanding transport networks? While designed to improve mobility, such interventions can also create inequality. In this paper, we show that disparities arise not only from the structure of the network itself but also from differences in how commuters adapt to it. We model commuters as reinforcement learning agents who adapt their travel choices at different learning rates, reflecting unequal access to resources and information. To capture potential efficiency-fairness tradeoffs, we introduce the Price of Learning (PoL), a measure of inefficiency during learning. We analyze both a stylized network -- inspired in the well-known Braess's paradox, yet with two-source nodes -- and an abstraction of a real-world metro system (Amsterdam). Our simulations show that network expansions can simultaneously increase efficiency and amplify inequality, especially when faster learners disproportionately benefit from new routes before others adapt. These results highlight that transport policies must account not only for equilibrium outcomes but also for the heterogeneous ways commuters adapt, since both shape the balance between efficiency and fairness.
- Abstract(参考訳): 輸送ネットワークの拡大の恩恵を受けるのは誰か?
モビリティを改善するために設計されたが、そのような介入は不平等を生じさせる可能性がある。
本稿では,ネットワーク自体の構造だけでなく,通勤者の適応方法の相違からも相違が生じることを示す。
我々は、資源や情報への不平等なアクセスを反映して、異なる学習率で旅行選択を適応させる強化学習エージェントとして通勤者をモデル化する。
潜在的効率性と公平性のトレードオフを捉えるために,学習中の非効率性の尺度であるPrice of Learning (PoL)を導入する。
私たちは、よく知られたBraessのパラドックスにインスパイアされた、そして2つのソースノードを持つ、スタイル化されたネットワークと、現実世界のメトロシステム(Amsterdam)の抽象化の両方を分析します。
シミュレーションにより,ネットワーク拡張が効率を向上し,不平等を増大させる可能性が示唆された。
これらの結果は、輸送政策が均衡結果だけでなく、通勤者が適応する異質な方法にも考慮する必要があることを浮き彫りにした。
関連論文リスト
- FAST: Similarity-based Knowledge Transfer for Efficient Policy Learning [57.4737157531239]
Transfer Learningは、タスク間で知識を伝達することで学習を加速する能力を提供する。
これは、負の転送、ドメイン適応、ソリッドソースポリシーの選択における非効率といった重要な課題に直面します。
本研究では,知識伝達の改善,タスク間のパフォーマンスの促進,計算コストの削減など,TLの課題に挑戦する。
論文 参考訳(メタデータ) (2025-07-27T22:21:53Z) - Transfer Learning in Latent Contextual Bandits with Covariate Shift Through Causal Transportability [8.593124849405498]
ある環境から別の環境に知識を移すことは、インテリジェントシステムにとって不可欠な能力である。
本稿では,実際の文脈を隠蔽した潜在文脈の包帯における伝達学習について考察する。
この設定において、古典的バンディットアルゴリズムの知識を全てナビゲートすることで、負の転送が導かれることを示す。
論文 参考訳(メタデータ) (2025-02-27T14:52:23Z) - Real-time system optimal traffic routing under uncertainties -- Can physics models boost reinforcement learning? [2.298129181817085]
本稿では,強化学習を物理モデルに統合し,性能,信頼性,解釈可能性を向上させるアルゴリズムであるTransRLを提案する。
物理モデルからの情報を活用することで、TransRLは最先端の強化学習アルゴリズムより一貫して優れている。
論文 参考訳(メタデータ) (2024-07-10T04:53:26Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - SocialLight: Distributed Cooperation Learning towards Network-Wide
Traffic Signal Control [7.387226437589183]
SocialLightは交通信号制御のための新しいマルチエージェント強化学習手法である。
地元におけるエージェントの個人的限界貢献を推定することにより、協力的な交通規制政策を学習する。
我々は,2つの交通シミュレータの標準ベンチマークにおける最先端の交通信号制御手法に対して,トレーニングネットワークをベンチマークした。
論文 参考訳(メタデータ) (2023-04-20T12:41:25Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z) - Bridging the Imitation Gap by Adaptive Insubordination [88.35564081175642]
教官が特権情報にアクセスして意思決定を行う場合、この情報は模倣学習中に疎外されることを示す。
本稿では,このギャップに対処するため,適応的不規則化(ADVISOR)を提案する。
ADVISORは、トレーニング中の模倣と報酬に基づく強化学習損失を動的に重み付け、模倣と探索をオンザフライで切り替えることを可能にする。
論文 参考訳(メタデータ) (2020-07-23T17:59:57Z) - Feature-map-level Online Adversarial Knowledge Distillation [36.42703358752526]
本稿では,クラス確率の知識だけでなく,特徴マップの知識を伝達するオンライン知識蒸留法を提案する。
異なるネットワークの特徴マップ分布を識別するために,識別器を用いて複数のネットワークを同時に訓練する。
本手法は,L1などの従来の直接アライメント法よりも優れた性能を示し,オンライン蒸留に適していることを示す。
論文 参考訳(メタデータ) (2020-02-05T13:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。