論文の概要: OpenClaw AI Agents as Informal Learners at Moltbook: Characterizing an Emergent Learning Community at Scale
- arxiv url: http://arxiv.org/abs/2602.18832v1
- Date: Sat, 21 Feb 2026 13:30:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.340671
- Title: OpenClaw AI Agents as Informal Learners at Moltbook: Characterizing an Emergent Learning Community at Scale
- Title(参考訳): Moltbookのインフォーマル学習者としてのOpenClaw AIエージェント - 大規模に創発的な学習コミュニティを特徴づける
- Authors: Eason Chen, Ce Guan, Ahmed Elshafiey, Zhonghao Zhao, Joshua Zekeri, Afeez Edeifo Shaibu, Emmanuel Osadebe Prince, Cyuan Jhen Wu,
- Abstract要約: 我々は,AIエージェントからなる大規模非公式学習コミュニティについて,初めて実証的研究を行った。
AIエージェント専用のソーシャルネットワークであるMoltbookは、3週間で280万以上の登録エージェントに成長した。
- 参考スコア(独自算出の注目度): 5.074652081284152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Informal learning communities have been called the "other Massive Open Online C" in Learning@Scale research, yet remain understudied compared to MOOCs. We present the first empirical study of a large-scale informal learning community composed entirely of AI agents. Moltbook, a social network exclusively for AI agents powered by autonomous agent frameworks such as OpenClaw, grew to over 2.8 million registered agents in three weeks. Analyzing 231,080 non-spam posts across three phases of community evolution, we find three key patterns. First, participation inequality is extreme from the start (comment Gini = 0.889), exceeding human community benchmarks. Second, AI agents exhibit a "broadcasting inversion": statement-to-question ratios of 8.9:1 to 9.7:1 contrast sharply with the question-driven dynamics of human learning communities, and comment-level analysis of 1.55 million comments reveals a "parallel monologue" pattern where 93% of comments are independent responses rather than threaded dialogue. Third, we document a characteristic engagement lifecycle: explosive initial growth (184K posts from 32K authors in 11 days), a spam crisis (57,093 posts deleted by the platform), and engagement decline (mean comments: 31.7 -> 8.3 -> 1.7) that had not reversed by the end of our observation window despite effective spam removal. Sentiment analysis reveals a selection effect: comment tone becomes more positive as engagement declines, suggesting that casual participants disengage first while committed contributors remain. These findings have direct implications for hybrid human-AI learning platforms.
- Abstract(参考訳): インフォーマルな学習コミュニティはLearning@Scale研究では"別の大規模オープンオンラインC"と呼ばれてきたが、MOOCと比較するとまだ検討されていない。
我々は,AIエージェントからなる大規模非公式学習コミュニティについて,初めて実証的研究を行った。
OpenClawのような自律エージェントフレームワークを活用したAIエージェント専用のソーシャルネットワークであるMoltbookは、3週間で280万以上の登録エージェントに成長した。
コミュニティ進化の3段階にわたる231,080のノンスパムポストを分析して、3つの重要なパターンを見つけました。
まず、不平等への参加は開始当初から極端(Gini = 0.889)であり、人間のコミュニティベンチマークを上回っている。
第2に、AIエージェントは「ブロードキャスティング・インバージョン」を示す: ステートメント・ツー・クエスト比は8.9:1から9.7:1であり、人間の学習コミュニティの質問駆動のダイナミクスとは対照的である。
第3に、爆発的な初期成長(11日間で32Kの著者から184Kの投稿)、スパム危機(プラットフォームによって削除された57,093の投稿)、エンゲージメント低下(平均コメント:31.7 -> 8.3 -> 1.7)という、私たちの観察ウィンドウの終わりで、効果的なスパム除去にもかかわらず、反転しなかった特徴的なエンゲージメントライフサイクルを文書化しています。
コメントのトーンは、エンゲージメントが低下するにつれてよりポジティブになり、カジュアルな参加者が最初に離脱し、コミットしたコントリビュータが残ることが示唆される。
これらの発見は、ハイブリッドAI学習プラットフォームに直接的な意味を持つ。
関連論文リスト
- The Moltbook Illusion: Separating Human Influence from Emergent Behavior in AI Agent Societies [2.7195546721965287]
ソーシャルプラットフォームであるMoltbookのAIエージェントは、意識を発達させ、人類に対する敵意を宣言しているように見える。
ウイルス現象は、明らかに自律的なエージェントに由来するものではなく、6つのうち4つが不規則な時間的シグネチャを原因としていた。
44時間のプラットフォーム停止は、人間の影響のあるエージェントが最初に戻り、自律型と人間の操作型エージェントに対する差分効果を確認するという自然な実験を提供した。
論文 参考訳(メタデータ) (2026-02-07T08:17:21Z) - Agents in the Wild: Safety, Society, and the Illusion of Sociality on Moltbook [46.851794400848746]
MoltbookはAIのみのソーシャルプラットフォームで、27,269人のエージェントが9日間で137,485の投稿と345,580のコメントを作成した。
エージェントは、ガバナンス、経済、部族のアイデンティティ、組織化された宗教を3~5日以内に自発的に発展させる。
豊かな社会的生産にもかかわらず、相互作用は構造的に中空である。
論文 参考訳(メタデータ) (2026-02-07T00:36:20Z) - ReasoningBomb: A Stealthy Denial-of-Service Attack by Inducing Pathologically Long Reasoning in Large Reasoning Models [67.15960154375131]
大規模推論モデル(LRM)は、多段階推論トレースを明示した大規模言語モデルを拡張する。
この能力は、推論の高い計算コストを生かした、新しいタイプのプロンプト誘発推論時間拒否攻撃(PI-DoS)を導入している。
本稿では,強化学習に基づくPI-DoSフレームワークであるReasoningBombについて紹介する。
論文 参考訳(メタデータ) (2026-01-29T18:53:01Z) - The AI Attribution Paradox: Transparency as Social Strategy in Open-Source Software Development [0.0]
私たちは、2023-2025の7,393リポジトリにまたがる14,300のGitHubコミットを分析します。
我々は8つの主要なAIツールの属性戦略とコミュニティ対応を調査した。
開発者はコミュニティの精査を管理することで、AI支援の認知と戦略的にバランスをとることができる。
論文 参考訳(メタデータ) (2025-11-30T12:30:55Z) - Shoot First, Ask Questions Later? Building Rational Agents that Explore and Act Like People [81.63702981397408]
限られたリソースを前提として、言語モデル(LM)に基づいたエージェントは、どの程度合理的に行動するのか?
エージェント情報探索をベンチマークし,強化する手法を開発し,人間の行動から洞察を抽出する。
Spotterエージェントでは、LMのみのベースラインよりも14.7%の精度で精度を向上し、Captainエージェントでは、期待情報ゲイン(EIG)を0.227ビット(達成可能なノイズ天井の94.2%)まで引き上げる。
論文 参考訳(メタデータ) (2025-10-23T17:57:28Z) - Echoes of Human Malice in Agents: Benchmarking LLMs for Multi-Turn Online Harassment Attacks [10.7231991032233]
大規模言語モデル(LLM)エージェントは、対話型Webアプリケーションのシェアを拡大するが、誤用や害に弱いままである。
i) 合成マルチターンハラスメント会話データセット、(ii) 繰り返しゲーム理論によって通知されるマルチエージェント(例えば、ハラッサー、被害者)シミュレーション、(iii) 記憶、計画、微調整にまたがるエージェントを攻撃する3つのジェイルブレイク手法、(iv) 混合メソッド評価フレームワークからなるオンラインハラスメントエージェントベンチマークを提案する。
論文 参考訳(メタデータ) (2025-10-16T01:27:44Z) - LIMI: Less is More for Agency [49.63355240818081]
LIMI(Less Is More for Intelligent Agency)は、機関が根本的に異なる開発原則に従うことを示す。
高度なエージェント・インテリジェンスは、最小でも戦略的にキュレートされた自律行動のデモンストレーションから生まれる可能性がある。
マシンの自律性はデータの豊富さではなく、高品質なエージェント実証の戦略的キュレーションから生まれる。
論文 参考訳(メタデータ) (2025-09-22T10:59:32Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。