論文の概要: Inclusive Fitness as a Key Step Towards More Advanced Social Behaviors in Multi-Agent Reinforcement Learning Settings
- arxiv url: http://arxiv.org/abs/2510.12555v1
- Date: Tue, 14 Oct 2025 14:20:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.346976
- Title: Inclusive Fitness as a Key Step Towards More Advanced Social Behaviors in Multi-Agent Reinforcement Learning Settings
- Title(参考訳): マルチエージェント強化学習環境におけるより高度な社会的行動への鍵となる包括的適合性
- Authors: Andries Rosseau, Raphaël Avalos, Ann Nowé,
- Abstract要約: 本稿では,各エージェントが遺伝子型を割り当てられ,報酬関数が包括的適合性の概念に従ってモデル化される,新しいマルチエージェント強化学習フレームワークを提案する。
エージェントの遺伝物質は、他のエージェントと共有され、我々の包括的報酬機能は、自然にこれを説明します。
我々は、囚人のジレンマを伴う2種類のネットワークゲームにおける社会的ダイナミクスについて研究し、その結果が生物学の確立した原則と一致していることを見出した。
- 参考スコア(独自算出の注目度): 6.220885697097764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The competitive and cooperative forces of natural selection have driven the evolution of intelligence for millions of years, culminating in nature's vast biodiversity and the complexity of human minds. Inspired by this process, we propose a novel multi-agent reinforcement learning framework where each agent is assigned a genotype and where reward functions are modelled after the concept of inclusive fitness. An agent's genetic material may be shared with other agents, and our inclusive reward function naturally accounts for this. We study the resulting social dynamics in two types of network games with prisoner's dilemmas and find that our results align with well-established principles from biology, such as Hamilton's rule. Furthermore, we outline how this framework can extend to more open-ended environments with spatial and temporal structure, finite resources, and evolving populations. We hypothesize the emergence of an arms race of strategies, where each new strategy is a gradual improvement over earlier adaptations of other agents, effectively producing a multi-agent autocurriculum analogous to biological evolution. In contrast to the binary team-based structures prevalent in earlier research, our gene-based reward structure introduces a spectrum of cooperation ranging from full adversity to full cooperativeness based on genetic similarity, enabling unique non team-based social dynamics. For example, one agent having a mutual cooperative relationship with two other agents, while the two other agents behave adversarially towards each other. We argue that incorporating inclusive fitness in agents provides a foundation for the emergence of more strategically advanced and socially intelligent agents.
- Abstract(参考訳): 自然選択の競争力と協力力は、何百万年もの間知能の進化を加速させ、自然の膨大な生物多様性と人間の心の複雑さを極めた。
このプロセスにインスパイアされた新しいマルチエージェント強化学習フレームワークを提案し、各エージェントに遺伝子型を付与し、報酬関数を包括的適合性の概念に基づいてモデル化する。
エージェントの遺伝物質は、他のエージェントと共有され、我々の包括的報酬機能は、自然にこれを説明します。
我々は、囚人のジレンマを伴う2種類のネットワークゲームにおける社会的ダイナミクスについて研究し、その結果がハミルトンの規則のような生物学の確立した原則と一致していることを見出した。
さらに, この枠組みが空間的・時間的構造, 資源的資源, 人口の進化を伴う, よりオープンな環境にどのように拡張できるかを概説する。
各戦略は、他のエージェントの早期適応よりも徐々に改善され、生物学的進化に類似したマルチエージェントオートキュリキュラムを効果的に生成する。
我々の遺伝子に基づく報酬構造は、以前の研究で広く見られる二元的チームベース構造とは対照的に、遺伝的類似性に基づく完全な逆境から完全な協調性まで幅広い協力関係を持ち込み、ユニークな非チームベースの社会的ダイナミクスを可能にしている。
例えば、あるエージェントは他の2つのエージェントと相互に協力関係を持ち、他方のエージェントは互いに敵対的に振る舞う。
我々は、エージェントに包括的適合性を導入することが、より戦略的に先進的で社会的に知的なエージェントの出現の基盤となると論じている。
関連論文リスト
- Scaling Large Language Model-based Multi-Agent Collaboration [72.8998796426346]
近年の大規模言語モデル駆動型自律エージェントのブレークスルーにより、複数エージェントのコラボレーションが集団的推論を通じて各個人を上回ることが判明している。
本研究は、協調剤の連続的な添加が同様の利益をもたらすかどうかを考察する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Enhancing Cooperation through Selective Interaction and Long-term Experiences in Multi-Agent Reinforcement Learning [10.932974027102619]
本研究では,空間的囚人のジレンマゲームにおけるマルチエージェント強化学習に基づく計算フレームワークを提案する。
2つの異なるQ-ネットを用いて各エージェントをモデル化することにより、協調と相互作用の共進化ダイナミクスを解き放つ。
論文 参考訳(メタデータ) (2024-05-04T12:42:55Z) - Mathematics of multi-agent learning systems at the interface of game
theory and artificial intelligence [0.8049333067399385]
進化ゲーム理論と人工知能は、一見すると異なるように見える2つの分野であるが、それらは顕著なつながりと交差を持っている。
前者は集団における行動(または戦略)の進化に焦点を当て、個人が他人と対話し、模倣(または社会学習)に基づいて戦略を更新する。
一方後者は、機械学習アルゴリズムと(ディープ)ニューラルネットワークに重点を置いている。
論文 参考訳(メタデータ) (2024-03-09T17:36:54Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Improved cooperation by balancing exploration and exploitation in
intertemporal social dilemma tasks [2.541277269153809]
本研究では,探索と搾取のバランスをとることができる学習率を組み込むことで協調を達成するための新たな学習戦略を提案する。
簡単な戦略を駆使したエージェントは、時間的社会的ジレンマと呼ばれる意思決定タスクにおいて、相対的に集団的リターンを改善する。
また、学習率の多様性が強化学習エージェントの人口に与える影響についても検討し、異種集団で訓練されたエージェントが特に協調した政策を発達させることを示す。
論文 参考訳(メタデータ) (2021-10-19T08:40:56Z) - Natural Emergence of Heterogeneous Strategies in Artificially
Intelligent Competitive Teams [0.0]
我々はFortAttackと呼ばれる競合するマルチエージェント環境を開発し、2つのチームが互いに競合する。
このような振る舞いがチームの成功に繋がる場合、同種エージェント間の異種行動の自然発生を観察する。
我々は、進化した反対戦略を利用して、友好的なエージェントのための単一のポリシーを訓練するアンサンブルトレーニングを提案する。
論文 参考訳(メタデータ) (2020-07-06T22:35:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。