論文の概要: Multi-Agent Neural Rewriter for Vehicle Routing with Limited Disclosure
of Costs
- arxiv url: http://arxiv.org/abs/2206.05990v1
- Date: Mon, 13 Jun 2022 09:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 18:24:10.874141
- Title: Multi-Agent Neural Rewriter for Vehicle Routing with Limited Disclosure
of Costs
- Title(参考訳): コストの少ない車両経路用マルチエージェントニューラルリライト装置
- Authors: Nathalie Paul, Tim Wirtz, Stefan Wrobel, Alexander Kister
- Abstract要約: チームのマルコフゲームとして、部分的に観測可能なコストでマルチサイクルルーティング問題を解く。
我々のマルチエージェント強化学習アプローチである、いわゆるマルチエージェントニューラルリライタは、1エージェントニューラルリライタを利用して、反復的に書き換えるソリューションによって問題を解決する。
- 参考スコア(独自算出の注目度): 65.23158435596518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We interpret solving the multi-vehicle routing problem as a team Markov game
with partially observable costs. For a given set of customers to serve, the
playing agents (vehicles) have the common goal to determine the team-optimal
agent routes with minimal total cost. Each agent thereby observes only its own
cost. Our multi-agent reinforcement learning approach, the so-called
multi-agent Neural Rewriter, builds on the single-agent Neural Rewriter to
solve the problem by iteratively rewriting solutions. Parallel agent action
execution and partial observability require new rewriting rules for the game.
We propose the introduction of a so-called pool in the system which serves as a
collection point for unvisited nodes. It enables agents to act simultaneously
and exchange nodes in a conflict-free manner. We realize limited disclosure of
agent-specific costs by only sharing them during learning. During inference,
each agents acts decentrally, solely based on its own cost. First empirical
results on small problem sizes demonstrate that we reach a performance close to
the employed OR-Tools benchmark which operates in the perfect cost information
setting.
- Abstract(参考訳): マルチサイクルルーティング問題を部分的に観測可能なコストでチームマルコフゲームとして解釈する。
特定の顧客に対して、プレーングエージェント(車両)は、チーム最適エージェントルートを最小限のコストで決定するという共通の目標を持っています。
これにより、各エージェントは自身のコストのみを観測する。
我々のマルチエージェント強化学習アプローチである、いわゆるマルチエージェントニューラルリライタは、1エージェントニューラルリライタを利用して、反復的に書き換えるソリューションによって問題を解決する。
並列エージェントアクションの実行と部分的可観測性は、ゲームに対する新しい書き換えルールを必要とする。
本稿では,未アクセスノードの収集ポイントとして機能する,いわゆるプールの導入を提案する。
エージェントは同時に動作し、ノードを競合のない方法で交換することができる。
学習中にのみ共有することで,エージェント固有のコストの開示の制限を実現する。
推論中、各エージェントは、そのコストのみに基づいて、分散的に行動する。
小さな問題サイズに関する最初の実験結果から、完全なコスト情報設定で動作するOR-Toolsベンチマークに近い性能に達することが示される。
関連論文リスト
- Learning Emergence of Interaction Patterns across Independent RL Agents in Multi-Agent Environments [3.0284592792243794]
ボトムアップネットワーク(BUN)は、マルチエージェントの集合を統一エンティティとして扱う。
協調ナビゲーションやトラヒックコントロールなどのタスクを含む,さまざまな協調型マルチエージェントシナリオに対する実証的な評価は,BUNが計算コストを大幅に削減したベースライン手法よりも優れていることを一貫して証明している。
論文 参考訳(メタデータ) (2024-10-03T14:25:02Z) - Fair collaborative vehicle routing: A deep multi-agent reinforcement
learning approach [49.00137468773683]
協力的な車両ルーティングは、キャリアがそれぞれの輸送要求を共有し、互いに代表して輸送要求を実行することで協力するときに発生する。
従来のゲーム理論解の概念は、特性関数がエージェントの数とともに指数関数的にスケールするので、計算に費用がかかる。
我々は,この問題を,深層マルチエージェント強化学習を用いて解決した連立交渉ゲームとしてモデル化することを提案する。
論文 参考訳(メタデータ) (2023-10-26T15:42:29Z) - Coalitional Bargaining via Reinforcement Learning: An Application to
Collaborative Vehicle Routing [49.00137468773683]
コラボレーティブ・ビークル・ルーティング(Collaborative Vehicle Routing)とは、デリバリ情報を共有し、互いに代理してデリバリ要求を実行することで、デリバリ企業が協力する場所である。
これによりスケールの経済が達成され、コスト、温室効果ガスの排出、道路渋滞が減少する。
しかし、どの会社が誰とパートナーし、それぞれの会社がどれだけの報酬を支払うべきか?
シャプリー値(英語版)やヌクレオルス(英語版)のような伝統的なゲーム理論解の概念は、協調車両ルーティング(英語版)の現実問題に対して計算することが困難である。
論文 参考訳(メタデータ) (2023-10-26T15:04:23Z) - Cooperative Thresholded Lasso for Sparse Linear Bandit [6.52540785559241]
本稿では,マルチエージェント・スパース文脈線形帯域問題に対処する新しい手法を提案する。
疎線形帯域における行単位の分散データに対処する最初のアルゴリズムである。
後悔を最小限に抑えるために効率的な特徴抽出が重要となる高次元マルチエージェント問題に適用可能である。
論文 参考訳(メタデータ) (2023-05-30T16:05:44Z) - Distributed Online Rollout for Multivehicle Routing in Unmapped
Environments [0.8437187555622164]
我々は、よく知られた多車両ルーティング問題に対して、完全に分散し、オンラインでスケーラブルな強化学習アルゴリズムを提案する。
エージェントはローカルクラスタに自己組織化し、各クラスタにローカルにマルチエージェントロールアウトスキームを独立に適用する。
提案アルゴリズムは, 放射半径の2倍と3倍の精度で, 基本方針よりも約2倍のコスト向上を実現している。
論文 参考訳(メタデータ) (2023-05-24T22:06:44Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Learning to Incentivize Information Acquisition: Proper Scoring Rules
Meet Principal-Agent Model [64.94131130042275]
インセンティブ付き情報取得問題について検討し、主治官がエージェントを雇って代理情報を収集する。
UCBアルゴリズムをモデルに適合させる,実証可能なサンプル効率の良いアルゴリズムを設計する。
本アルゴリズムは,主役の最適利益に対する微妙な推定手順と,所望のエージェントの行動にインセンティブを与える保守的な補正手法を特徴とする。
論文 参考訳(メタデータ) (2023-03-15T13:40:16Z) - Multi-Agent congestion cost minimization with linear function
approximation [0.0]
この作業では、ソースノードからゴールノードにネットワークをトラバースする複数のエージェントについて検討する。
エージェントの目的は、最小限の全体的なコストで、分散的な方法でゴールノードへのパスを見つけることである。
本稿では,新しいマルチエージェント・コンジェクション・コスト最小化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:45:44Z) - Multi-agent Policy Optimization with Approximatively Synchronous
Advantage Estimation [55.96893934962757]
マルチエージェントシステムでは、異なるエージェントの警察を共同で評価する必要がある。
現在の方法では、バリュー関数やアドバンテージ関数は非同期に評価される対実関節アクションを使用する。
本研究では,近似的に同期する利点推定を提案する。
論文 参考訳(メタデータ) (2020-12-07T07:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。