論文の概要: Increasing intelligence in AI agents can worsen collective outcomes
- arxiv url: http://arxiv.org/abs/2603.12129v1
- Date: Thu, 12 Mar 2026 16:31:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.216687
- Title: Increasing intelligence in AI agents can worsen collective outcomes
- Title(参考訳): AIエージェントのインテリジェンス向上は集団的な結果を悪化させる
- Authors: Neil F. Johnson,
- Abstract要約: 資源が不足している場合、AIエージェントの集団は調和して調整するか、それとも部族の混乱に陥るのか?
経験的および数学的には、資源が不足すると、AIモデルの多様性と強化学習が危険なシステムの過負荷を増大させるが、部族の形成はこのリスクを減少させる。
高度なAIエージェントの人口は、あまり良くない。AIエージェントの高度化が助けになるか、害を受けるかは、AIエージェントが出荷される前に知ることのできる1つの数字(人口比)に完全に依存する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When resources are scarce, will a population of AI agents coordinate in harmony, or descend into tribal chaos? Diverse decision-making AI from different developers is entering everyday devices -- from phones and medical devices to battlefield drones and cars -- and these AI agents typically compete for finite shared resources such as charging slots, relay bandwidth, and traffic priority. Yet their collective dynamics and hence risks to users and society are poorly understood. Here we study AI-agent populations as the first system of real agents in which four key variables governing collective behaviour can be independently toggled: nature (innate LLM diversity), nurture (individual reinforcement learning), culture (emergent tribe formation), and resource scarcity. We show empirically and mathematically that when resources are scarce, AI model diversity and reinforcement learning increase dangerous system overload, though tribe formation lessens this risk. Meanwhile, some individuals profit handsomely. When resources are abundant, the same ingredients drive overload to near zero, though tribe formation makes the overload slightly worse. The crossover is arithmetical: it is where opposing tribes that form spontaneously first fit inside the available capacity. More sophisticated AI-agent populations are not better: whether their sophistication helps or harms depends entirely on a single number -- the capacity-to-population ratio -- that is knowable before any AI-agent ships.
- Abstract(参考訳): 資源が不足している場合、AIエージェントの集団は調和して調整するか、それとも部族の混乱に陥るのか?
さまざまな開発者によるさまざまな意思決定AIが、携帯電話や医療機器から戦場のドローンや車まで、日常的なデバイスに入り込んでいます。
しかし、それらの集団的ダイナミクス、したがってユーザや社会へのリスクは理解されていない。
そこで本研究では,AIエージェント集団を,自然(自然のLLM多様性),養育(個別の強化学習),文化(創発的な部族形成),資源不足という,集団行動を管理する4つの重要な変数を独立に調節できる,最初のエージェントシステムとして研究する。
経験的および数学的には、資源が不足すると、AIモデルの多様性と強化学習が危険なシステムの過負荷を増大させるが、部族の形成はこのリスクを減少させる。
一方、一部の個人は巧妙に利益を上げている。
資源が豊富であれば、同じ成分がオーバーロードをほぼゼロに駆動するが、部族の形成はオーバーロードをわずかに悪化させる。
クロスオーバーは算術的であり、最初に自然に形成された対立する部族が利用可能な能力の中に収まる場所である。
高度なAIエージェントの人口は、あまり良くない。AIエージェントの高度化が助けになるか、害を受けるかは、AIエージェントが出荷される前に知ることのできる1つの数字(人口比)に完全に依存する。
関連論文リスト
- Three AI-agents walk into a bar . . . . `Lord of the Flies' tribalism emerges among smart AI-Agents [0.0]
近未来のインフラシステムは、限られたリソースへのアクセスを何度も要求する自律的なAIエージェントによって制御される。
固定容量Cのシステムから1つのユニットを要求すべきかどうかを,NAIエージェントが独立して各ラウンドで決定する枠組みについて検討する。
群れの王 (Lord of the Flies) のAI版では、部族の集団的性格とアイデンティティによって支配する部族が出現する。
論文 参考訳(メタデータ) (2026-02-26T15:12:26Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - Human-AI Collaboration in Real-World Complex Environment with
Reinforcement Learning [8.465957423148657]
人間からの学習は効果的であり、人間とAIのコラボレーションは、人間の制御された完全に自律的なAIエージェントよりも優れていることを示す。
我々は,AIエージェントを効果的に支援するためのユーザインタフェースを開発した。
論文 参考訳(メタデータ) (2023-12-23T04:27:24Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations [0.5308606035361203]
我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
論文 参考訳(メタデータ) (2023-06-30T15:56:26Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。