論文の概要: Emergent Bartering Behaviour in Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2205.06760v1
- Date: Fri, 13 May 2022 16:44:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 13:12:40.852772
- Title: Emergent Bartering Behaviour in Multi-Agent Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習における創発的bartering行動
- Authors: Michael Bradley Johanson, Edward Hughes, Finbarr Timbers, Joel Z.
Leibo
- Abstract要約: 本稿では,小学校のミクロ経済学から着想を得た発想に基づく環境に貢献する。
生産・消費・価格の急激な変動が環境条件に反応することを示す。
また, 環境報酬, 抑止行動, エージェント・アーキテクチャ, トレーダブル・グッズを消費する能力の選択が, この経済行動の出現を助長するか抑制するかについても検討する。
- 参考スコア(独自算出の注目度): 11.16026729107112
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in artificial intelligence often stem from the development of new
environments that abstract real-world situations into a form where research can
be done conveniently. This paper contributes such an environment based on ideas
inspired by elementary Microeconomics. Agents learn to produce resources in a
spatially complex world, trade them with one another, and consume those that
they prefer. We show that the emergent production, consumption, and pricing
behaviors respond to environmental conditions in the directions predicted by
supply and demand shifts in Microeconomics. We also demonstrate settings where
the agents' emergent prices for goods vary over space, reflecting the local
abundance of goods. After the price disparities emerge, some agents then
discover a niche of transporting goods between regions with different
prevailing prices -- a profitable strategy because they can buy goods where
they are cheap and sell them where they are expensive. Finally, in a series of
ablation experiments, we investigate how choices in the environmental rewards,
bartering actions, agent architecture, and ability to consume tradable goods
can either aid or inhibit the emergence of this economic behavior. This work is
part of the environment development branch of a research program that aims to
build human-like artificial general intelligence through multi-agent
interactions in simulated societies. By exploring which environment features
are needed for the basic phenomena of elementary microeconomics to emerge
automatically from learning, we arrive at an environment that differs from
those studied in prior multi-agent reinforcement learning work along several
dimensions. For example, the model incorporates heterogeneous tastes and
physical abilities, and agents negotiate with one another as a grounded form of
communication.
- Abstract(参考訳): 人工知能の進歩は、しばしば現実世界の状況を便利に研究できる形で抽象化する新しい環境の開発に起因している。
本稿は,小学校のミクロ経済学に触発された発想に基づく環境に貢献する。
エージェントは、空間的に複雑な世界でリソースを生産し、互いに取引し、彼らが好むリソースを消費することを学ぶ。
マイクロエコノミクスの需給シフトによって予測される方向において, 創発的な生産, 消費, 価格の挙動が環境条件に応答することを示す。
また,各エージェントの商品に対する創発的価格が空間的に異なる設定を示し,現地の商品の豊富さを反映している。
価格格差が生じた後、一部のエージェントは、価格の異なる地域間で商品を輸送するニッチ(ニッチ)を発見する。
最後に, 一連のアブレーション実験において, 環境報酬, 物々交換行動, エージェント・アーキテクチャ, および販売可能な商品を消費する能力の選択が, この経済行動の出現を助長するか阻害するかについて検討した。
この研究は、シミュレーション社会におけるマルチエージェントインタラクションを通じて人間のような人工知能を構築することを目的とした研究プログラムの環境開発部門の一部である。
初等ミクロ経済学の基礎的な現象が学習から自動的に現れるためには,どのような環境特性が必要かを探索することにより,従来のマルチエージェント強化学習作業と異なる環境に到達した。
例えば、モデルには異質な味覚と身体能力が含まれており、エージェントはコミュニケーションの基盤として互いに交渉する。
関連論文リスト
- Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Understanding the World to Solve Social Dilemmas Using Multi-Agent
Reinforcement Learning [0.7161783472741748]
マルチエージェント強化学習環境で世界モデルを学ぶ自己関心有理エージェントの行動について検討する。
シミュレーションの結果,社会的ジレンマが生じるシナリオを扱う場合,世界モデルによって支えられたエージェントのグループは,他のテストされたエージェントよりも優れていた。
論文 参考訳(メタデータ) (2023-05-19T00:31:26Z) - Melting Pot 2.0 [54.60680281014163]
Melting Potは、マルチエージェント人工知能の開発を容易にするために開発されたツールである。
新たなソーシャルパートナーへの一般化を測定する評価プロトコルを提供する。
Melting Potは、最も多様な相互依存とインセンティブの集合をカバーすることを目指している。
論文 参考訳(メタデータ) (2022-11-24T18:23:28Z) - Collaborative Training of Heterogeneous Reinforcement Learning Agents in
Environments with Sparse Rewards: What and When to Share? [7.489793155793319]
本研究は,本質的なモチベーションを通じて得られた情報と,より効率的な探索と学習の高速化を目的とした情報を組み合わせることに焦点を当てる。
計算コストの少ない協調的なフレームワークが知識を共有することなく独立した学習プロセスより優れていることを示す。
論文 参考訳(メタデータ) (2022-02-24T16:15:51Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - A mechanism of Individualistic Indirect Reciprocity with internal and
external dynamics [0.0]
本研究は,エージェントの態度に着目した Nowak モデルと Sigmund モデルの新しい変種を提案する。
エージェントベースモデルとデータサイエンス手法を用いて,エージェントの識別的スタンスがほとんどの場合優位であることを示す。
また, 他者の評判が不明な場合には, 不均一性が高く, 協力需要が高い場合には, 異種社会が得られることも示唆した。
論文 参考訳(メタデータ) (2021-05-28T23:28:50Z) - Ecological Reinforcement Learning [76.9893572776141]
このような条件下での学習を容易にする環境特性について検討する。
環境の特性が強化学習エージェントのパフォーマンスにどのように影響するかを理解することは、学習を魅力的にする方法でタスクを構造化するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-22T17:55:03Z) - Development of swarm behavior in artificial learning agents that adapt
to different foraging environments [2.752817022620644]
我々は、各個人を人工知能エージェントとしてモデル化するために、射影シミュレーションを適用した。
我々は、エージェントが資源に到達するのに必要な距離によって、どのように異なる種類の集団運動が出現するかを観察する。
さらに,創発的集団力学の異なる種類において生じる個々の軌跡の特性について検討した。
論文 参考訳(メタデータ) (2020-04-01T16:32:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。