論文の概要: Fluid-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2602.14559v1
- Date: Mon, 16 Feb 2026 08:37:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.341495
- Title: Fluid-Agent Reinforcement Learning
- Title(参考訳): 流体エージェント強化学習
- Authors: Shishir Sharma, Doina Precup, Theodore J. Perkins,
- Abstract要約: 現実の世界では、エージェントの数は固定されておらず、プリオリも知られていない。
我々はエージェントが他のエージェントを作成できるフレームワークを提案し、これを流体エージェント環境と呼ぶ。
本稿では,流体エージェントゲームに対するゲーム理論解の概念を提案し,本フレームワーク内でのMARLアルゴリズムの性能を実証的に評価する。
- 参考スコア(独自算出の注目度): 28.83171804545455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The primary focus of multi-agent reinforcement learning (MARL) has been to study interactions among a fixed number of agents embedded in an environment. However, in the real world, the number of agents is neither fixed nor known a priori. Moreover, an agent can decide to create other agents (for example, a cell may divide, or a company may spin off a division). In this paper, we propose a framework that allows agents to create other agents; we call this a fluid-agent environment. We present game-theoretic solution concepts for fluid-agent games and empirically evaluate the performance of several MARL algorithms within this framework. Our experiments include fluid variants of established benchmarks such as Predator-Prey and Level-Based Foraging, where agents can dynamically spawn, as well as a new environment we introduce that highlights how fluidity can unlock novel solution strategies beyond those observed in fixed-population settings. We demonstrate that this framework yields agent teams that adjust their size dynamically to match environmental demands.
- Abstract(参考訳): マルチエージェント強化学習(MARL)の主な焦点は、環境に埋め込まれた一定数のエージェント間の相互作用を研究することである。
しかし、現実の世界では、エージェントの数は固定されておらず、プリオリも知られていない。
さらに、エージェントは、他のエージェントを作成することができる(例えば、細胞が分裂するか、会社が分裂をスピンオフするか)。
本稿では,エージェントが他のエージェントを作成できるフレームワークを提案し,これを流体エージェント環境と呼ぶ。
本稿では,流体エージェントゲームに対するゲーム理論解の概念を提案し,本フレームワーク内でのMARLアルゴリズムの性能を実証的に評価する。
我々の実験には、エージェントが動的に生成できるPredator-PreyやLevel-Based Foragingといった確立したベンチマークの流動的なバリエーションや、固定人口設定で観察される以上の新しいソリューション戦略を、流動性がどのようにアンロックできるかを示す新しい環境が含まれている。
このフレームワークは,環境負荷に合わせたサイズを動的に調整するエージェントチームを生成することを実証する。
関連論文リスト
- InfiAgent: Self-Evolving Pyramid Agent Framework for Infinite Scenarios [28.65914611521654]
InfiAgentはピラミッドのようなDAGベースのMulti-Agent Frameworkで、textbfinfiniteのシナリオに適用できる。
InfiAgentはADAS(類似の自動生成エージェントフレームワーク)と比較して9.9%高いパフォーマンスを実現している
論文 参考訳(メタデータ) (2025-09-26T15:44:09Z) - Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - Kaleidoscopic Teaming in Multi Agent Simulations [75.47388708240042]
我々は,エージェントが行う複雑な行動,思考プロセス,行動の安全性リスクを評価する上で,既存のレッドチームや安全評価フレームワークは不十分であると主張している。
我々は,新しいコンテキスト内最適化手法を導入し,安全解析のためのより良いシナリオを生成する。
エージェントの安全性を測定するためのフレームワークとともに使用できる適切なメトリクスを提案する。
論文 参考訳(メタデータ) (2025-06-20T23:37:17Z) - AgentGym: Evolving Large Language Model-based Agents across Diverse Environments [116.97648507802926]
大規模言語モデル(LLM)はそのようなエージェントを構築するための有望な基盤と考えられている。
我々は、自己進化能力を備えた一般機能 LLM ベースのエージェントを構築するための第一歩を踏み出す。
我々はAgentGymを提案する。AgentGymは、幅広い、リアルタイム、ユニフォーマット、並行エージェント探索のための様々な環境とタスクを特徴とする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-06T15:15:41Z) - Affordable Generative Agents [16.372072265248192]
AGA(Affordable Generative Agents)は、エージェント環境とエージェント間の両方のレベルで、信頼性と低コストのインタラクションの生成を可能にするフレームワークである。
私たちのコードは、https://github.com/AffordableGenerative-Agents/Affordable-Generative-Agentsで公開されています。
論文 参考訳(メタデータ) (2024-02-03T06:16:28Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。