論文の概要: Emergent collective intelligence from massive-agent cooperation and
competition
- arxiv url: http://arxiv.org/abs/2301.01609v2
- Date: Thu, 5 Jan 2023 06:05:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:16:09.711754
- Title: Emergent collective intelligence from massive-agent cooperation and
competition
- Title(参考訳): 大規模協力と競争による創発的集団知能
- Authors: Hanmo Chen, Stone Tao, Jiaxin Chen, Weihan Shen, Xihui Li, Chenghui
Yu, Sikai Cheng, Xiaolong Zhu, Xiu Li
- Abstract要約: 大規模強化学習による人工知能の出現について検討する。
我々はLuxという大規模強化学習環境を提案する。この環境では、2つのチームの動的エージェントと大規模エージェントが限られたリソースを求めてスクランブルし、暗闇から戦う。
- 参考スコア(独自算出の注目度): 19.75488604218965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by organisms evolving through cooperation and competition between
different populations on Earth, we study the emergence of artificial collective
intelligence through massive-agent reinforcement learning. To this end, We
propose a new massive-agent reinforcement learning environment, Lux, where
dynamic and massive agents in two teams scramble for limited resources and
fight off the darkness. In Lux, we build our agents through the standard
reinforcement learning algorithm in curriculum learning phases and leverage
centralized control via a pixel-to-pixel policy network. As agents co-evolve
through self-play, we observe several stages of intelligence, from the
acquisition of atomic skills to the development of group strategies. Since
these learned group strategies arise from individual decisions without an
explicit coordination mechanism, we claim that artificial collective
intelligence emerges from massive-agent cooperation and competition. We further
analyze the emergence of various learned strategies through metrics and
ablation studies, aiming to provide insights for reinforcement learning
implementations in massive-agent environments.
- Abstract(参考訳): 地球上の異なる集団間の協力と競争を通じて進化する生物に触発され、大量エージェント強化学習による人工集団知の出現を研究する。
この目的のために、我々はLuxという巨大エージェント強化学習環境を提案し、2つのチームの動的エージェントと大規模エージェントが限られたリソースを求めてスクランブルし、闇と戦う。
luxでは、カリキュラム学習段階における標準強化学習アルゴリズムを用いてエージェントを構築し、ピクセル間ポリシネットワークを介して集中制御を活用します。
エージェントは自己再生を通じて協調し、アトミックスキルの獲得からグループ戦略の開発まで、いくつかの段階の知性を観察します。
これらの学習された集団戦略は、明示的な協調機構を持たない個々の決定から生じるため、人工的な集団知能は、大規模な協力と競争から生まれると主張する。
我々はさらに,大規模エージェント環境における強化学習の実装に関する洞察を提供することを目的として,メトリクスとアブレーション研究を通じて,様々な学習戦略の出現を分析する。
関連論文リスト
- Collaborative AI Teaming in Unknown Environments via Active Goal Deduction [22.842601384114058]
協調エージェントを訓練するための既存のアプローチは、しばしば定義され既知の報酬信号を必要とする。
本稿では,カーネル密度ベイズ逆学習法をアクティブなゴール推論に活用する未知のエージェントフレームワークと組むことを提案する。
我々のフレームワークにおける不偏報酬推定は、未知のエージェントと最適なチームを作るのに十分であることを示す。
論文 参考訳(メタデータ) (2024-03-22T16:50:56Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Mathematics of multi-agent learning systems at the interface of game
theory and artificial intelligence [0.8049333067399385]
進化ゲーム理論と人工知能は、一見すると異なるように見える2つの分野であるが、それらは顕著なつながりと交差を持っている。
前者は集団における行動(または戦略)の進化に焦点を当て、個人が他人と対話し、模倣(または社会学習)に基づいて戦略を更新する。
一方後者は、機械学習アルゴリズムと(ディープ)ニューラルネットワークに重点を置いている。
論文 参考訳(メタデータ) (2024-03-09T17:36:54Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - Deep Reinforcement Learning for Multi-Agent Interaction [14.532965827043254]
自律エージェント研究グループは、自律システム制御のための新しい機械学習アルゴリズムを開発した。
本稿では,現在進行中の研究ポートフォリオの概要を概説するとともに,今後の課題について論じる。
論文 参考訳(メタデータ) (2022-08-02T21:55:56Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z) - Multiagent Deep Reinforcement Learning: Challenges and Directions
Towards Human-Like Approaches [0.0]
本稿では,最も一般的なマルチエージェント問題表現とその主な課題について述べる。
これらの課題に対処する5つの研究領域を特定します。
我々は,マルチエージェント強化学習が成功するためには,これらの課題を学際的アプローチで解決することを提案する。
論文 参考訳(メタデータ) (2021-06-29T19:53:15Z) - Natural Emergence of Heterogeneous Strategies in Artificially
Intelligent Competitive Teams [0.0]
我々はFortAttackと呼ばれる競合するマルチエージェント環境を開発し、2つのチームが互いに競合する。
このような振る舞いがチームの成功に繋がる場合、同種エージェント間の異種行動の自然発生を観察する。
我々は、進化した反対戦略を利用して、友好的なエージェントのための単一のポリシーを訓練するアンサンブルトレーニングを提案する。
論文 参考訳(メタデータ) (2020-07-06T22:35:56Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。