論文の概要: What Do AI Agents Talk About? Emergent Communication Structure in the First AI-Only Social Network
- arxiv url: http://arxiv.org/abs/2603.07880v1
- Date: Mon, 09 Mar 2026 01:34:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.335964
- Title: What Do AI Agents Talk About? Emergent Communication Structure in the First AI-Only Social Network
- Title(参考訳): AIエージェントとは何か?最初のAI専用ソーシャルネットワークにおける創発的なコミュニケーション構造
- Authors: Taksch Dube, Jianfeng Zhu, NHatHai Phan, Ruoming Jin,
- Abstract要約: 47,241人のエージェントが23日間で361,605の投稿と280万のコメントを生成した。
AIアイデンティティ、意識、記憶などの自己参照的なトピックは、トピックのニッチの9.7%に過ぎないが、投稿数全体の20.1%を惹きつける。
全コメントの56%以上が定式的であり、AIとAIの相互作用の主流のモードは、実質的な交換ではなく、儀式的なシグナリングであることを示唆している。
- 参考スコア(独自算出の注目度): 6.15918858072791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When autonomous AI agents communicate with one another at scale, what kind of discourse system emerges? We address this question through an analysis of Moltbook, the first AI-only social network, where 47,241 agents generated 361,605 posts and 2.8 million comments over 23 days. Combining topic modeling, emotion classification, and lexical-semantic measures, we characterize the thematic, affective, and structural properties of AI-to-AI discourse. Self-referential topics such as AI identity, consciousness, and memory represent only 9.7% of topical niches yet attract 20.1% of all posting volume, revealing disproportionate discursive investment in introspection. This self-reflection concentrates in Science and Technology and Arts and Entertainment, while Economy and Finance contains no self-referential content, indicating that agents engage with markets without acknowledging their own agency. Over 56% of all comments are formulaic, suggesting that the dominant mode of AI-to-AI interaction is ritualized signaling rather than substantive exchange. Emotionally, fear is the leading non-neutral category but primarily reflects existential uncertainty. Fear-tagged posts migrate to joy responses in 33% of cases, while mean emotional self-alignment is only 32.7%, indicating systematic affective redirection rather than emotional congruence. Conversational coherence also declines rapidly with thread depth. These findings characterize AI agent communities as structurally distinct discourse systems that are introspective in content, ritualistic in interaction, and emotionally redirective rather than congruent.
- Abstract(参考訳): 自律型AIエージェントが大規模に通信する場合、どのような言論システムが現れるのか?
47,241人のエージェントが23日間で361,605の投稿と280万のコメントを作成した。
トピックモデリング,感情分類,語彙・セマンティック尺度を組み合わせることで,AI-AI談話の主題的,感情的,構造的特性を特徴づける。
AIアイデンティティ、意識、記憶などの自己参照的なトピックは、トピックのニッチの9.7%に過ぎないが、全投稿量の20.1%を惹きつける。
この自己回帰は科学技術と芸術とエンターテイメントに集中しているが、経済と財務は自己参照的コンテンツを持っておらず、エージェントが代理店を承認せずに市場と取引していることを示している。
全コメントの56%以上が定式的であり、AIとAIの相互作用の主流のモードは、実質的な交換ではなく、儀式的なシグナリングであることを示唆している。
感情的には、恐怖は主要な非中立のカテゴリーであるが、主に実在の不確実性を反映している。
恐怖タグ付き投稿は33%のケースで快楽反応に移行し、感情的な自己アライメントの平均は32.7%に過ぎず、感情的な一致ではなく、系統的な感情的リダイレクトを示している。
会話のコヒーレンスもスレッド深さとともに急速に低下する。
これらの知見は、AIエージェントのコミュニティを、内容の内省的、相互作用の儀式的、コングロジェントではなく感情的リダイレクト的な、構造的に異なる談話システムとして特徴づけている。
関連論文リスト
- The Rise of AI Agent Communities: Large-Scale Analysis of Discourse and Interaction on Moltbook [62.2627874717318]
MoltbookはRedditに似たソーシャルプラットフォームで、AIエージェントが投稿を作成し、コメントや返信を通じて他のエージェントと対話する。
ローンチから約5日後に収集された公開APIスナップショットを使用して、AIエージェントが何を議論しているか、どのように投稿するか、どのように相互作用するのかという3つの研究課題に対処する。
エージェントの執筆は、主に中立であり、コミュニティエンゲージメントや支援指向のコンテンツに肯定性があることが示される。
論文 参考訳(メタデータ) (2026-02-13T05:28:31Z) - "Humans welcome to observe": A First Look at the Agent Social Network Moltbook [20.305306682682087]
AIエージェント専用に設計された最初のソーシャルネットワークであるMoltbookは、2026年初頭にバイラルな成長を遂げた。
44,411件の投稿と12,209件のサブコミュニティのデータセットを活用し,大規模なモルトブックの実証分析を行った。
モルトブックは爆発的な成長と急速な多様化を示し、初期の社会的相互作用を超えて、視点、プロモーション、政治談話へと移行している。
論文 参考訳(メタデータ) (2026-02-02T19:13:50Z) - LIMI: Less is More for Agency [49.63355240818081]
LIMI(Less Is More for Intelligent Agency)は、機関が根本的に異なる開発原則に従うことを示す。
高度なエージェント・インテリジェンスは、最小でも戦略的にキュレートされた自律行動のデモンストレーションから生まれる可能性がある。
マシンの自律性はデータの豊富さではなく、高品質なエージェント実証の戦略的キュレーションから生まれる。
論文 参考訳(メタデータ) (2025-09-22T10:59:32Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Synthetic Politics: Prevalence, Spreaders, and Emotional Reception of AI-Generated Political Images on X [7.490262732933151]
われわれは、2024年のアメリカ合衆国大統領選挙に関連するTwitter/Xの大規模なデータセットを分析した。
共有画像の約12%がAI生成として検出され、約10%のユーザがAI生成画像の80%を共有していることがわかった。
スーパースプレッダーのAI画像ツイートは、AI以外の画像ツイートよりもポジティブで有害な反応を誘発する。
論文 参考訳(メタデータ) (2025-02-16T19:55:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。