論文の概要: Achieving Diverse Objectives with AI-driven Prices in Deep Reinforcement
Learning Multi-agent Markets
- arxiv url: http://arxiv.org/abs/2106.06060v1
- Date: Thu, 10 Jun 2021 21:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:06:07.600410
- Title: Achieving Diverse Objectives with AI-driven Prices in Deep Reinforcement
Learning Multi-agent Markets
- Title(参考訳): 深層強化学習型マルチエージェント市場におけるAI駆動価格による多目的達成
- Authors: Panayiotis Danassis, Aris Filos-Ratsikas, Boi Faltings
- Abstract要約: 深層学習政策立案者を通じて市場価格と割当を計算するための実践的アプローチを提案する。
政策立案者はより柔軟で、多様な目的について価格を調整できます。
この結果のハイライトとして,我々の政策立案者は,資源の持続可能性を維持することに大きく成功している。
- 参考スコア(独自算出の注目度): 35.02265584959417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a practical approach to computing market prices and allocations
via a deep reinforcement learning policymaker agent, operating in an
environment of other learning agents. Compared to the idealized market
equilibrium outcome -- which we use as a benchmark -- our policymaker is much
more flexible, allowing us to tune the prices with regard to diverse objectives
such as sustainability and resource wastefulness, fairness, buyers' and
sellers' welfare, etc. To evaluate our approach, we design a realistic market
with multiple and diverse buyers and sellers. Additionally, the sellers, which
are deep learning agents themselves, compete for resources in a common-pool
appropriation environment based on bio-economic models of commercial fisheries.
We demonstrate that: (a) The introduced policymaker is able to achieve
comparable performance to the market equilibrium, showcasing the potential of
such approaches in markets where the equilibrium prices can not be efficiently
computed. (b) Our policymaker can notably outperform the equilibrium solution
on certain metrics, while at the same time maintaining comparable performance
for the remaining ones. (c) As a highlight of our findings, our policymaker is
significantly more successful in maintaining resource sustainability, compared
to the market outcome, in scarce resource environments.
- Abstract(参考訳): 本稿では,他の学習エージェントの環境で動作する深層強化学習政策立案エージェントを用いて,市場価格とアロケーションを計算するための実践的アプローチを提案する。
理想的な市場均衡の結果 -- 私たちがベンチマークとして使用している -- と比較して、当社の政策立案者はより柔軟で、持続可能性や資源の浪費、公正性、買い手や売り手の福祉といった様々な目的において価格を調整できます。
このアプローチを評価するために、複数の多様な買い手と売り手による現実的な市場を設計する。
さらに、深層学習エージェントである売り手は、商業漁業の生物経済モデルに基づいた共同プール給付環境において資源を競う。
a)導入された政策立案者は、市場均衡と同等のパフォーマンスを達成でき、均衡価格を効率的に計算できない市場でのそのようなアプローチの可能性を示しています。
b) 政策立案者は, ある指標の平衡解を顕著に上回り, 残る指標と同等の性能を維持することができる。
c) 当社の政策立案者は,資源環境が不足している状況において,市場結果と比較して資源持続可能性の維持にかなり成功しています。
関連論文リスト
- Evaluating the Impact of Multiple DER Aggregators on Wholesale Energy Markets: A Hybrid Mean Field Approach [2.0535683313855055]
地域エネルギー市場への分散エネルギー資源の統合は、グリッドの柔軟性を大幅に向上させ、市場効率を向上し、より持続可能なエネルギーの未来に貢献することができる。
我々は、複数のDERアグリゲータを特徴とする市場モデルについて検討し、それぞれがDERリソースのポートフォリオを制御し、DER資産所有者に代わって市場への入札を行う。
本稿では,MFGフレームワーク内で各エージェントが最適な戦略を学習し,市場状況や不確実性に適応する能力を向上させるための強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T14:56:28Z) - Large-Scale Contextual Market Equilibrium Computation through Deep Learning [10.286961524745966]
本稿では,市場均衡を近似する深層学習方式であるMarketFCNetを紹介する。
MarketFCNetは,既存の手法と比較して,競争性能と実行時間を大幅に低下させることを示す。
論文 参考訳(メタデータ) (2024-06-11T03:36:00Z) - Finding Regularized Competitive Equilibria of Heterogeneous Agent
Macroeconomic Models with Reinforcement Learning [151.03738099494765]
労働市場に参入する世帯や企業を無限に数える異種エージェントマクロ経済モデルについて検討する。
本稿では,モデルの正規化競争均衡を求めるデータ駆動強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-24T17:16:27Z) - Parity in Markets -- Methods, Costs, and Consequences [109.5267969644294]
我々は、市場デザイナーがフィッシャー市場の税や補助金を使って、市場均衡の結果が一定の制約内に収まることを確実にする方法を示します。
我々は、既存の文献で提案されている様々な公正性制約を市場ケースに適用し、その制約から誰が利益を得るか、誰を失うかを示す。
論文 参考訳(メタデータ) (2022-10-05T22:27:44Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Strategic bidding in freight transport using deep reinforcement learning [0.0]
本稿では,貨物輸送市場における戦略的入札行動を表すマルチエージェント強化学習アルゴリズムを提案する。
本アルゴリズムを用いて,エージェント間の中央制御や通信を行わずに市場均衡が実現可能かどうかを検討する。
論文 参考訳(メタデータ) (2021-02-18T10:17:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。