論文の概要: The Yerkes-Dodson Curve for AI Agents: Emergent Cooperation Under Environmental Pressure in Multi-Agent LLM Simulations
- arxiv url: http://arxiv.org/abs/2603.07360v1
- Date: Sat, 07 Mar 2026 22:09:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.318472
- Title: The Yerkes-Dodson Curve for AI Agents: Emergent Cooperation Under Environmental Pressure in Multi-Agent LLM Simulations
- Title(参考訳): AIエージェントのためのYerkes-Dodson曲線:マルチエージェントLDMシミュレーションにおける環境圧力下での創発的協調
- Authors: Ivan Pasichnyk,
- Abstract要約: 本稿では,大規模言語モデル(LLM)マルチエージェントシステムにおけるストレス-パフォーマンス関係に関する最初の体系的研究について述べる。
我々は,4段階にわたる22の実験を行い,資源不足(覚醒コスト)と生殖競争(性選択)を通じて環境圧力を変化させた。
我々の重要な発見は、協調行動は反転U曲線に従っており、貿易相互作用は中圧下で29でピークであり、低圧と極圧の両方が8-12の貿易を生み出している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing environments that maximize the rate of emergent behavior development in AI agents remains an open problem. We present the first systematic study of stress-performance relationships in large language model (LLM) multi-agent systems, drawing an explicit parallel to the Yerkes-Dodson law from cognitive psychology. Using a grid-world survival arena, we conduct 22 experiments across four phases, varying environmental pressure through resource scarcity (upkeep cost) and reproductive competition (sexual selection). Our key finding is that cooperative behavior follows an inverted-U curve: trade interactions peak at 29 under medium pressure (upkeep=5), while both low and extreme pressure produce 8--12 trades. Under extreme pressure, behavioral repertoire collapses to movement-only within 5--12 turns. We further show that sexual selection -- a softer pressure mechanism where all agents survive but not all reproduce -- eliminates inter-agent aggression entirely and produces communicative behavior absent under survival pressure. These results suggest that environmental pressure calibration is a viable curriculum design strategy for LLM agent development, analogous to the inverted-U relationship between arousal and performance in biological systems.
- Abstract(参考訳): AIエージェントにおける創発的行動発達の速度を最大化する環境の設計は、依然としてオープンな問題である。
本稿では,大規模言語モデル(LLM)マルチエージェントシステムにおけるストレス-パフォーマンス関係に関する最初の体系的研究について述べる。
グリッド・ワールド・サバイバル・アリーナを用いて、4段階にわたる22の実験を行い、資源不足(アップケプ・コスト)と生殖競争(セクシュアル・セレクション)を通じて環境圧力を変化させた。
貿易相互作用は中圧(upkeep=5)下において29にピークし、低圧と極圧の両方が8--12にピークとなる。
極度の圧力下では、行動レパートリーが5~12回転で動きのみに崩壊する。さらに、全てのエージェントが生存するが、すべての複製しない、より柔らかい圧力機構である性選択は、エージェント間の攻撃を完全に排除し、生存圧力下で欠落するコミュニケーション行動を引き起こすことを示す。
これらの結果から, 環境圧力校正は, 生物系における覚醒と性能の逆U関係に類似した, LLMエージェント開発のための実行可能なカリキュラム設計戦略であることが示唆された。
関連論文リスト
- Autonomous Continual Learning of Computer-Use Agents for Environment Adaptation [57.65688895630163]
ACuRLは自律的なカリキュラム強化学習フレームワークで、エージェントを人間データゼロの特定の環境に継続的に適応させる。
本研究では,環境内学習と環境横断学習の両方を効果的に実現し,既存の環境を忘れずに4~22%の性能向上を実現した。
論文 参考訳(メタデータ) (2026-02-10T23:06:02Z) - The Emergence of Complex Behavior in Large-Scale Ecological Environments [33.8561801938052]
オープンエンド環境下での複雑な行動の出現を物理的規模と人口規模がいかに形成するかを考察する。
私たちのゴールは、1つのハイパフォーマンスなポリシーを最適化することではなく、大きな集団にまたがって行動がどのように出現し進化するかを調べることです。
論文 参考訳(メタデータ) (2025-10-21T02:03:25Z) - Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - From Pheromones to Policies: Reinforcement Learning for Engineered Biological Swarms [0.0]
本研究では, フェロモンを介するセロモン凝集と強化学習(RL)の理論的等価性を確立する。
我々は,フェロモンが数学的に相互学習の更新を反映していることを示し,捕食作業を行う線虫群をモデル化した。
この結果から, 環境信号が外部メモリとして機能する分散RLプロセスは, スティグマイシン系が本質的にコード化されていることが示唆された。
論文 参考訳(メタデータ) (2025-09-24T13:16:35Z) - Collaborative Value Function Estimation Under Model Mismatch: A Federated Temporal Difference Analysis [55.13545823385091]
フェデレーション強化学習(FedRL)は、エージェント間のデータ交換を防止し、データのプライバシを維持しながら協調学習を可能にする。
現実世界のアプリケーションでは、各エージェントは若干異なる遷移ダイナミクスを経験し、固有のモデルミスマッチを引き起こす。
情報共有の適度なレベルでさえ、環境固有のエラーを著しく軽減することを示す。
論文 参考訳(メタデータ) (2025-03-21T18:06:28Z) - Causal Graph ODE: Continuous Treatment Effect Modeling in Multi-agent
Dynamical Systems [70.84976977950075]
実世界のマルチエージェントシステムは、しばしば動的で連続的であり、エージェントは時間とともにその軌道や相互作用を共進化させ、変化させる。
本稿では,グラフニューラルネットワーク(GNN)をODE関数として,エージェント間の連続的な相互作用をキャプチャする新しいモデルを提案する。
我々のモデルの主な革新は、治療の時間依存表現を学習し、ODE関数にそれらを組み込むことで、潜在的な結果の正確な予測を可能にすることである。
論文 参考訳(メタデータ) (2024-02-29T23:07:07Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - Eco-evolutionary Dynamics of Non-episodic Neuroevolution in Large
Multi-agent Environments [0.0]
環境や人口のリセットを伴わない適応剤を連続的に進化させる手法を提案する。
NEはエポジカルに非エポジカルなマルチエージェント環境で動作し,持続的な集団採餌戦略を見いだせることを示す。
論文 参考訳(メタデータ) (2023-02-18T13:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。