論文の概要: By Fair Means or Foul: Quantifying Collusion in a Market Simulation with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2406.02650v1
- Date: Tue, 4 Jun 2024 15:35:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 23:19:06.895972
- Title: By Fair Means or Foul: Quantifying Collusion in a Market Simulation with Deep Reinforcement Learning
- Title(参考訳): 公正な意味とフール: 深層強化学習による市場シミュレーションにおける衝突の定量化
- Authors: Michael Schlechtinger, Damaris Kosack, Franz Krause, Heiko Paulheim,
- Abstract要約: 本研究は、反復価格競争の実験的なオリゴポリーモデルを用いる。
我々は,エージェントが開発する戦略と価格パターンについて検討し,その結果を導出する可能性がある。
以上の結果から,RLをベースとしたAIエージェントは,超競争的価格帯電を特徴とする癒着状態に収束することが示唆された。
- 参考スコア(独自算出の注目度): 1.5249435285717095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the rapidly evolving landscape of eCommerce, Artificial Intelligence (AI) based pricing algorithms, particularly those utilizing Reinforcement Learning (RL), are becoming increasingly prevalent. This rise has led to an inextricable pricing situation with the potential for market collusion. Our research employs an experimental oligopoly model of repeated price competition, systematically varying the environment to cover scenarios from basic economic theory to subjective consumer demand preferences. We also introduce a novel demand framework that enables the implementation of various demand models, allowing for a weighted blending of different models. In contrast to existing research in this domain, we aim to investigate the strategies and emerging pricing patterns developed by the agents, which may lead to a collusive outcome. Furthermore, we investigate a scenario where agents cannot observe their competitors' prices. Finally, we provide a comprehensive legal analysis across all scenarios. Our findings indicate that RL-based AI agents converge to a collusive state characterized by the charging of supracompetitive prices, without necessarily requiring inter-agent communication. Implementing alternative RL algorithms, altering the number of agents or simulation settings, and restricting the scope of the agents' observation space does not significantly impact the collusive market outcome behavior.
- Abstract(参考訳): 急速に進化するeコマースの世界では、人工知能(AI)ベースの価格アルゴリズム、特に強化学習(RL)を利用するものがますます普及している。
この上昇は、市場の共謀の可能性を秘めている価格の状況に繋がった。
本研究は,基本経済理論から主観的消費者需要選好までのシナリオをカバーするために,価格競争を繰り返す実験的なオリゴポリーモデルを用いて,環境を体系的に変化させる。
また、様々な需要モデルの実装を可能にする新しい需要フレームワークを導入し、異なるモデルの重み付けを可能にする。
この領域における既存の研究とは対照的に、エージェントが開発する戦略や価格パターンについて検討することを目的としており、これが協調的な結果をもたらす可能性がある。
さらに,エージェントが競争相手の価格を観測できないシナリオについても検討する。
最後に、すべてのシナリオに対して包括的な法的分析を提供します。
以上の結果から,RLをベースとしたAIエージェントは,必ずしもエージェント間通信を必要とせず,超競争的な価格帯電を特徴とする癒着状態に収束することが示唆された。
代替RLアルゴリズムの実装、エージェント数やシミュレーション設定の変更、エージェントの観察範囲の制限は、市場の結果に大きく影響しない。
関連論文リスト
- Dual-Agent Deep Reinforcement Learning for Dynamic Pricing and Replenishment [15.273192037219077]
不整合決定周波数下での動的価格設定と補充問題について検討する。
我々は、包括的な市場データに基づいてトレーニングされた決定木に基づく機械学習アプローチを統合する。
このアプローチでは、2つのエージェントが価格と在庫を処理し、さまざまなスケールで更新される。
論文 参考訳(メタデータ) (2024-10-28T15:12:04Z) - Deep Reinforcement Learning Agents for Strategic Production Policies in Microeconomic Market Simulations [1.6499388997661122]
複数の生産者と競合する市場で効果的な政策を得るためのDRLベースのアプローチを提案する。
我々のフレームワークは、静的およびランダムな戦略を一貫して上回るいくつかのシミュレーションに適応的な生産ポリシーを学習することを可能にする。
その結果,DRLで訓練したエージェントは生産水準を戦略的に調整し,長期利益率を最大化できることがわかった。
論文 参考訳(メタデータ) (2024-10-27T18:38:05Z) - Refined Mechanism Design for Approximately Structured Priors via Active
Regression [50.71772232237571]
我々は、大量の商品を戦略的入札者に販売する収益を最大化する販売業者の問題を考える。
この設定の最適かつほぼ最適のメカニズムは、特徴付けや計算が難しいことで有名である。
論文 参考訳(メタデータ) (2023-10-11T20:34:17Z) - "Guinea Pig Trials" Utilizing GPT: A Novel Smart Agent-Based Modeling
Approach for Studying Firm Competition and Collusion [10.721432974840429]
我々は、スマートエージェントが企業を代表し、相互に対話する、スマートエージェントベースモデリング(SABM)と呼ばれる革新的なフレームワークを提案する。
スマートエージェントは意思決定のための広範な知識基盤を持ち、従来のABMエージェントを超越した人間のような戦略能力を示す。
その結果、コミュニケーションがなければ、スマートエージェントは常に暗黙の共謀に到達し、バーランド均衡価格よりも高い値で収束するが、モノポリーやカルテル価格よりも低い値となることが示された。
論文 参考訳(メタデータ) (2023-08-21T18:42:17Z) - Structured Dynamic Pricing: Optimal Regret in a Global Shrinkage Model [50.06663781566795]
消費者の嗜好と価格感が時間とともに変化する動的モデルを考える。
我々は,モデルパラメータの順序を事前に把握している透視者と比較して,収益損失が予想される,後悔による動的価格政策の性能を計測する。
提案した政策の最適性を示すだけでなく,政策立案のためには,利用可能な構造情報を組み込むことが不可欠であることを示す。
論文 参考訳(メタデータ) (2023-03-28T00:23:23Z) - Towards Multi-Agent Reinforcement Learning driven Over-The-Counter
Market Simulations [16.48389671789281]
オーバー・ザ・カウンタ市場において,流動性提供者と流動性取扱業者が相互作用するゲームについて検討した。
互いに対戦することで、深層強化学習主体のエージェントは創発的な行動を学ぶ。
遷移性仮定の下で,多エージェントポリシー勾配アルゴリズムの収束率を示す。
論文 参考訳(メタデータ) (2022-10-13T17:06:08Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。