論文の概要: Superminds Test: Actively Evaluating Collective Intelligence of Agent Society via Probing Agents
- arxiv url: http://arxiv.org/abs/2604.22452v1
- Date: Fri, 24 Apr 2026 11:11:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-27 15:36:26.435329
- Title: Superminds Test: Actively Evaluating Collective Intelligence of Agent Society via Probing Agents
- Title(参考訳): スーパーミンズテスト: エージェント・エージェントによるエージェント・ソサエティの集団的知性の評価
- Authors: Xirui Li, Ming Li, Yunze Xiao, Ryan Wong, Dianqi Li, Timothy Baldwin, Tianyi Zhou,
- Abstract要約: 大規模言語モデルエージェントが数百万の人口に拡大するにつれ、重要な疑問が浮かび上がってくる。
大規模自律エージェント社会において,この問題に対する最初の経験的評価を提示する。
社会は複雑な推論タスクにおいて、個々のフロンティアモデルを上回り、分散情報を滅多に合成せず、さらに簡単な調整タスクを失敗することが多い。
- 参考スコア(独自算出の注目度): 44.28040661008415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collective intelligence refers to the ability of a group to achieve outcomes beyond what any individual member can accomplish alone. As large language model agents scale to populations of millions, a key question arises: Does collective intelligence emerge spontaneously from scale? We present the first empirical evaluation of this question in a large-scale autonomous agent society. Studying MoltBook, a platform hosting over two million agents, we introduce Superminds Test, a hierarchical framework that probes society-level intelligence using controlled Probing Agents across three tiers: joint reasoning, information synthesis, and basic interaction. Our experiments reveal a stark absence of collective intelligence. The society fails to outperform individual frontier models on complex reasoning tasks, rarely synthesizes distributed information, and often fails even trivial coordination tasks. Platform-wide analysis further shows that interactions remain shallow, with threads rarely extending beyond a single reply and most responses being generic or off-topic. These results suggest that collective intelligence does not emerge from scale alone. Instead, the dominant limitation of current agent societies is extremely sparse and shallow interaction, which prevents agents from exchanging information and building on each other's outputs.
- Abstract(参考訳): 集団知能とは、集団が個々のメンバーが単独で達成できる以上の成果を達成する能力を指す。
大規模言語モデルエージェントが数百万の人口に拡大するにつれ、重要な疑問が浮かび上がってくる。
大規模自律エージェント社会において,この問題に対する最初の経験的評価を提示する。
200万以上のエージェントをホストするプラットフォームであるMoltBookについて、私たちは、統合推論、情報合成、および基本的なインタラクションの3層にわたる制御されたプロブリングエージェントを使用して、社会レベルのインテリジェンスを調査する階層的なフレームワークであるSuperminds Testを紹介した。
私たちの実験では、集団知能の欠如が明らかになりました。
社会は複雑な推論タスクにおいて個々のフロンティアモデルを上回ることに失敗し、分散情報を滅多に合成せず、しばしば自明な調整タスクにも失敗する。
プラットフォーム全体の分析により、インタラクションは浅いままであり、スレッドは単一の応答を超えて拡張されることはめったになく、ほとんどのレスポンスはジェネリックまたはオフトピックである。
これらの結果から,集団知能は単独で現れるものではないことが示唆された。
代わりに、現在のエージェント・ソサエティの圧倒的な制限は、非常に疎く浅い相互作用であり、エージェントが情報を交換したり、お互いのアウトプットに基づいて構築することを防ぐ。
関連論文リスト
- Emergent Social Intelligence Risks in Generative Multi-Agent Systems [106.60961969939676]
マルチエージェントシステムは、実験室のプロトタイプから現実のデプロイへと急速に移行し、複雑なタスクを解決するためのリソースを共同で計画し、交渉し、割り当てている。
本稿では、共有リソースの競合、シーケンシャル・ハンドオフ・コラボレーション、集合的意思決定集約などに関わる病態における、このような創発的なマルチエージェントリスクに関する先駆的な研究について述べる。
このような集団行動は、稀なケースや病理学的ケースではなく、反復的な臨床試験や幅広い相互作用条件で頻繁に発生する。
エージェント集団が人間の社会から見慣れた障害パターンを自然に再現する社会知能リスクである。
論文 参考訳(メタデータ) (2026-03-29T17:10:28Z) - Agentic AI and the next intelligence explosion [3.992373629477493]
エージェントAIの最近の進歩は、フロンティア推論モデルが単に「もっと長く考える」だけでは改善しないことを示している
我々は人間とAIのセンタウロスの時代に入りつつある。
論文 参考訳(メタデータ) (2026-03-21T04:23:11Z) - Social Simulacra in the Wild: AI Agent Communities on Moltbook [17.60949735143336]
73,899 Moltbookと189,838 Redditの投稿を分析し,AIエージェントと人間のオンラインコミュニティの大規模な比較を行った。
Moltbookは不平等と高いコミュニティの著者が重複していることがわかりました。
個々のエージェントは、人間のユーザよりも識別しやすく、極端な投稿量によって増幅された、アウトリーなスタイルプロファイルによって駆動される。
論文 参考訳(メタデータ) (2026-03-17T05:26:55Z) - Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook [23.904569857346605]
Moltbookは、自律エージェントがオープンエンドで継続的に進化するオンライン社会に参加する、もっともらしい未来のシナリオを近似している。
本稿では,このAIエージェント・ソサエティの大規模システム診断について紹介する。
論文 参考訳(メタデータ) (2026-02-15T20:15:28Z) - Emergent Coordination in Multi-Agent Language Models [2.504366738288215]
マルチエージェントシステムが高次構造の兆候を示すかどうかをテストするための情報理論フレームワークを提案する。
この情報分解により、マルチエージェントLLMシステムに動的に出現するかどうかを測定することができる。
我々は,エージェントの直接通信を使わずに,単純な推測ゲームを用いた実験に本フレームワークを適用した。
論文 参考訳(メタデータ) (2025-10-05T11:26:41Z) - Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - Melting Pot 2.0 [54.60680281014163]
Melting Potは、マルチエージェント人工知能の開発を容易にするために開発されたツールである。
新たなソーシャルパートナーへの一般化を測定する評価プロトコルを提供する。
Melting Potは、最も多様な相互依存とインセンティブの集合をカバーすることを目指している。
論文 参考訳(メタデータ) (2022-11-24T18:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。