論文の概要: Evolution of Cooperative Hunting in Artificial Multi-layered Societies
- arxiv url: http://arxiv.org/abs/2005.11580v5
- Date: Fri, 15 Jan 2021 19:43:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 03:36:35.811880
- Title: Evolution of Cooperative Hunting in Artificial Multi-layered Societies
- Title(参考訳): 人工多層社会における協調狩猟の進化
- Authors: Honglin Bao and Wolfgang Banzhaf
- Abstract要約: 協調行動の複雑さは、マルチエージェントに基づく社会シミュレーションにおいて重要な問題である。
本稿では, 人工社会における協調狩猟行動の進化を研究するために, エージェントベースモデルを提案する。
- 参考スコア(独自算出の注目度): 3.270664282725826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The complexity of cooperative behavior is a crucial issue in multiagent-based
social simulation. In this paper, an agent-based model is proposed to study the
evolution of cooperative hunting behaviors in an artificial society. In this
model, the standard hunting game of stag is modified into a new situation with
social hierarchy and penalty. The agent society is divided into multiple layers
with supervisors and subordinates. In each layer, the society is divided into
multiple clusters. A supervisor controls all subordinates in a cluster locally.
Subordinates interact with rivals through reinforcement learning, and report
learning information to their corresponding supervisor. Supervisors process the
reported information through repeated affiliation-based aggregation and by
information exchange with other supervisors, then pass down the reprocessed
information to subordinates as guidance. Subordinates, in turn, update learning
information according to guidance, following the "win stay, lose shift"
strategy. Experiments are carried out to test the evolution of cooperation in
this closed-loop semi-supervised emergent system with different parameters. We
also study the variations and phase transitions in this game setting.
- Abstract(参考訳): 協調行動の複雑さは、マルチエージェントに基づく社会シミュレーションにおいて重要な問題である。
本稿では,人工社会における協調狩猟行動の進化を研究するために,エージェントベースモデルを提案する。
このモデルでは、ステージの標準的な狩猟ゲームは、社会的階層とペナルティを持つ新しい状況に修正される。
エージェント・ソサエティは、監督者と部下の複数の層に分けられる。
各層において、社会は複数のクラスターに分けられる。
スーパーバイザーは、クラスタ内のすべての部下をローカルに管理する。
部下は強化学習を通じてライバルと交流し、対応する上司に学習情報を報告する。
管理者は、繰り返しアフィリエイトベースのアグリゲーションや、他のスーパーバイザーとの情報交換を通じて報告された情報を処理し、その再処理された情報を部下に案内として渡す。
部下は"win stay, lost shift"戦略に従って、指導に従って学習情報を更新する。
パラメータの異なる閉ループ半教師付き創発システムにおける協調の進化をテストする実験を行った。
また,このゲーム設定における変化と相転移についても検討する。
関連論文リスト
- Emergent Dominance Hierarchies in Reinforcement Learning Agents [5.451419559128312]
現代の強化学習(RL)アルゴリズムは、様々なタスクにおいて人間より優れている。
我々は、RLエージェントの集団が、新しい集団に支配階層を発明し、学習し、強制し、伝達できることを示します。
支配的な階層構造は、鶏、マウス、魚、その他の種で研究されるものと類似した構造を持つ。
論文 参考訳(メタデータ) (2024-01-21T16:59:45Z) - Deconstructing Cooperation and Ostracism via Multi-Agent Reinforcement
Learning [3.3751859064985483]
一方のエージェントが常に協力している場合でも,ネットワークのリワイアリングが相互協力を促進することを示す。
また、オストラシズムだけでは協力を浮かび上がらせるには不十分であることも分かっています。
本研究は,協力の出現に必要な条件とメカニズムについて考察した。
論文 参考訳(メタデータ) (2023-10-06T23:18:55Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Learning cooperative behaviours in adversarial multi-agent systems [2.355408272992293]
この作業は、RoboSumoと呼ばれる既存の仮想マルチエージェントプラットフォームを拡張して、TripleSumoを作成する。
我々は、2人のエージェント、すなわち「バグ」と「アント」が組んで別のエージェント「スパイダー」をアリーナから追い出さなければならないシナリオを調査する。
この目標を達成するため、新たに加わったエージェント「バグ」は「アント」とスパイダー」の対戦中に訓練される。
論文 参考訳(メタデータ) (2023-02-10T22:12:29Z) - ELIGN: Expectation Alignment as a Multi-Agent Intrinsic Reward [29.737986509769808]
本稿では,自己監督型固有報酬ELIGN-期待アライメントを提案する。
動物が周囲の動物と分散的に協力するのと同じように、期待アライメントで訓練されたエージェントは、隣人の期待に合う行動を学ぶ。
エージェント・コーディネーションは、エージェントがタスクを個別に分割し、コーディネーション・対称性を破り、敵を混乱させ、予測アライメントを通じて改善することを示す。
論文 参考訳(メタデータ) (2022-10-09T22:24:44Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Evolving Dyadic Strategies for a Cooperative Physical Task [0.0]
我々はシミュレートされたエージェントを進化させ、実現可能なロールスイッチングポリシーの空間を探索する。
これらの切り替えポリシーを協調的なマニュアルタスクに適用すると、エージェントは視覚的および触覚的手がかりを処理して、いつ役割を切り替えるかを決定する。
最高の演奏ダイアドは高い時間的調整(反同期)を示す。
論文 参考訳(メタデータ) (2020-04-22T13:23:12Z) - Hierarchically Decoupled Imitation for Morphological Transfer [95.19299356298876]
形態学的に単純なエージェントから学習情報を転送することで、より複雑なエージェントのサンプル効率を大幅に向上させることができることを示す。
まず、より単純なエージェントの低レベルを模倣するために複雑なエージェントの低レベルをインセンティブ化すると、ゼロショット高レベル転送が大幅に改善されることを示す。
第2に,高レベルのKL正規化学習が学習を安定させ,モデム崩壊を防ぐことを示す。
論文 参考訳(メタデータ) (2020-03-03T18:56:49Z) - Multi-Agent Interactions Modeling with Correlated Policies [53.38338964628494]
本稿では,マルチエージェントインタラクションモデリング問題をマルチエージェント模倣学習フレームワークに実装する。
相関ポリシー(CoDAIL)を用いた分散型適応模倣学習アルゴリズムの開発
様々な実験により、CoDAILはデモレーターに近い複雑な相互作用をより良く再生できることが示されている。
論文 参考訳(メタデータ) (2020-01-04T17:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。