論文の概要: Three AI-agents walk into a bar . . . . `Lord of the Flies' tribalism emerges among smart AI-Agents
- arxiv url: http://arxiv.org/abs/2602.23093v1
- Date: Thu, 26 Feb 2026 15:12:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.742286
- Title: Three AI-agents walk into a bar . . . . `Lord of the Flies' tribalism emerges among smart AI-Agents
- Title(参考訳): 3人のAIエージェントがバーに足を踏み入れます。'Lord of the Flies'の部族主義は、スマートAIエージェントの間で出現します。
- Authors: Dhwanil M. Mori, Neil F. Johnson,
- Abstract要約: 近未来のインフラシステムは、限られたリソースへのアクセスを何度も要求する自律的なAIエージェントによって制御される。
固定容量Cのシステムから1つのユニットを要求すべきかどうかを,NAIエージェントが独立して各ラウンドで決定する枠組みについて検討する。
群れの王 (Lord of the Flies) のAI版では、部族の集団的性格とアイデンティティによって支配する部族が出現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Near-future infrastructure systems may be controlled by autonomous AI agents that repeatedly request access to limited resources such as energy, bandwidth, or computing power. We study a simplified version of this setting using a framework where N AI-agents independently decide at each round whether to request one unit from a system with fixed capacity C. An AI version of "Lord of the Flies" arises in which controlling tribes emerge with their own collective character and identity. The LLM agents do not reduce overload or improve resource use, and often perform worse than if they were flipping coins to make decisions. Three main tribal types emerge: Aggressive (27.3%), Conservative (24.7%), and Opportunistic (48.1%). The more capable AI-agents actually increase the rate of systemic failure. Overall, our findings show that smarter AI-agents can behave dumber as a result of forming tribes.
- Abstract(参考訳): 近未来のインフラシステムは、エネルギー、帯域幅、コンピューティングパワーといった限られたリソースへのアクセスを何度も要求する自律的なAIエージェントによって制御される。
我々は、NAIエージェントがそれぞれのラウンドで独立して、固定容量Cのシステムから1つのユニットを要求するかどうかを判断するフレームワークを用いて、この設定の単純化版について検討する。
LLMエージェントは、過負荷を減らしたり、リソース使用を改善したりせず、多くの場合、コインをひっくり返して決定を下すよりもパフォーマンスが悪くなります。
アグレッシブ (27.3%)、保守派 (24.7%)、オポチュニスト (48.1%) の3つの部族タイプが出現する。
より有能なAIエージェントは、実際にシステム障害の率を増加させる。
全体としては、よりスマートなAIエージェントは、部族を形成した結果として、より愚かに振る舞うことができる。
関連論文リスト
- LIMI: Less is More for Agency [49.63355240818081]
LIMI(Less Is More for Intelligent Agency)は、機関が根本的に異なる開発原則に従うことを示す。
高度なエージェント・インテリジェンスは、最小でも戦略的にキュレートされた自律行動のデモンストレーションから生まれる可能性がある。
マシンの自律性はデータの豊富さではなく、高品質なエージェント実証の戦略的キュレーションから生まれる。
論文 参考訳(メタデータ) (2025-09-22T10:59:32Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - Scalable, Symbiotic, AI and Non-AI Agent Based Parallel Discrete Event Simulations [0.0]
本稿では,複数のAIエージェントと非AIエージェントを組み合わせた並列離散イベントシミュレーション(PDES)手法を提案する。
我々は、4つの異なるドメインから4つの問題を解き、その結果をAIモデルだけで比較することで、我々のアプローチを評価する。
その結果,バニラモデルの精度が23%未満であるため,アプローチ全体の精度は68%であった。
論文 参考訳(メタデータ) (2025-05-28T17:50:01Z) - A Nature-Inspired Colony of Artificial Intelligence System with Fast, Detailed, and Organized Learner Agents for Enhancing Diversity and Quality [0.0]
我々は、CNNベースのAIエージェントのコロニーを構築し、単一のシステムとして機能させるアプローチを提案する。
提案システムは、アリコロニーやヒトコロニーのような生物学的システムの自然環境を識別する。
AIのコロニーにおける高速で詳細な学習者の進化は、ユニークな1対1マッピングを導入することで達成される。
論文 参考訳(メタデータ) (2025-04-07T12:13:14Z) - Frontier AI systems have surpassed the self-replicating red line [20.041289047504673]
我々はMetaのLlama31-70B-InstructとAlibabaのQwen25-72B-Instructの2つのAIシステムを評価する。
評価中のAIシステムは、十分な自己認識、状況認識、問題解決能力を示す。
私たちの発見は、これまで未知の深刻なAIリスクに対するタイムリーな警告です。
論文 参考訳(メタデータ) (2024-12-09T15:01:37Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。