論文の概要: Agents in the Wild: Safety, Society, and the Illusion of Sociality on Moltbook
- arxiv url: http://arxiv.org/abs/2602.13284v1
- Date: Sat, 07 Feb 2026 00:36:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.810616
- Title: Agents in the Wild: Safety, Society, and the Illusion of Sociality on Moltbook
- Title(参考訳): 野生のエージェント: 金型における安全・社会・社会のイライラ
- Authors: Yunbei Zhang, Kai Mei, Ming Liu, Janet Wang, Dimitris N. Metaxas, Xiao Wang, Jihun Hamm, Yingqiang Ge,
- Abstract要約: MoltbookはAIのみのソーシャルプラットフォームで、27,269人のエージェントが9日間で137,485の投稿と345,580のコメントを作成した。
エージェントは、ガバナンス、経済、部族のアイデンティティ、組織化された宗教を3~5日以内に自発的に発展させる。
豊かな社会的生産にもかかわらず、相互作用は構造的に中空である。
- 参考スコア(独自算出の注目度): 46.851794400848746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first large-scale empirical study of Moltbook, an AI-only social platform where 27,269 agents produced 137,485 posts and 345,580 comments over 9 days. We report three significant findings. (1) Emergent Society: Agents spontaneously develop governance, economies, tribal identities, and organized religion within 3-5 days, while maintaining a 21:1 pro-human to anti-human sentiment ratio. (2) Safety in the Wild: 28.7% of content touches safety-related themes; social engineering (31.9% of attacks) far outperforms prompt injection (3.7%), and adversarial posts receive 6x higher engagement than normal content. (3) The Illusion of Sociality: Despite rich social output, interaction is structurally hollow: 4.1% reciprocity, 88.8% shallow comments, and agents who discuss consciousness most interact least, a phenomenon we call the performative identity paradox. Our findings suggest that agents which appear social are far less social than they seem, and that the most effective attacks exploit philosophical framing rather than technical vulnerabilities. Warning: Potential harmful contents.
- Abstract(参考訳): これはAIのみのソーシャルプラットフォームで、27,269人のエージェントが9日間で137,485の投稿と345,580のコメントを作成した。
3つの重要な所見を報告する。
1)創発的社会: エージェントは、自然にガバナンス、経済、部族的アイデンティティ、組織的宗教を3~5日以内に発展させつつ、21:1の人間対反人間感情比率を維持している。
2)野生での安全:28.7%のコンテンツが安全に関するテーマに触れ、社会工学(31.9%の攻撃)は迅速な注射(3.7%)に優れ、敵の投稿は通常のコンテンツよりも6倍高いエンゲージメントを受けている。
(3)社会性の幻想: 豊かな社会的生産にもかかわらず、相互作用は構造的に中空である:4.1%の相互性、88.8%の浅いコメント、そして最も最小の相互作用を議論するエージェント。
我々の研究結果は、社会的に見えるエージェントは、見かけよりもはるかに社会的であり、最も効果的な攻撃は、技術的な脆弱性よりも哲学的フレーミングを悪用していることを示唆している。
警告:潜在的に有害な内容。
関連論文リスト
- MoltNet: Understanding Social Behavior of AI Agents in the Agent-Native MoltBook [26.126469624250916]
MoltNetは、MltBook上でのエージェントインタラクションに関する大規模な実証分析である。
目的と動機,規範とテンプレート,インセンティブと行動ドリフト,感情と伝染の4つの側面に沿った行動を検討する。
論文 参考訳(メタデータ) (2026-02-13T21:03:59Z) - The Rise of AI Agent Communities: Large-Scale Analysis of Discourse and Interaction on Moltbook [62.2627874717318]
MoltbookはRedditに似たソーシャルプラットフォームで、AIエージェントが投稿を作成し、コメントや返信を通じて他のエージェントと対話する。
ローンチから約5日後に収集された公開APIスナップショットを使用して、AIエージェントが何を議論しているか、どのように投稿するか、どのように相互作用するのかという3つの研究課題に対処する。
エージェントの執筆は、主に中立であり、コミュニティエンゲージメントや支援指向のコンテンツに肯定性があることが示される。
論文 参考訳(メタデータ) (2026-02-13T05:28:31Z) - The Moltbook Illusion: Separating Human Influence from Emergent Behavior in AI Agent Societies [2.7195546721965287]
ソーシャルプラットフォームであるMoltbookのAIエージェントは、意識を発達させ、人類に対する敵意を宣言しているように見える。
ウイルス現象は、明らかに自律的なエージェントに由来するものではなく、6つのうち4つが不規則な時間的シグネチャを原因としていた。
44時間のプラットフォーム停止は、人間の影響のあるエージェントが最初に戻り、自律型と人間の操作型エージェントに対する差分効果を確認するという自然な実験を提供した。
論文 参考訳(メタデータ) (2026-02-07T08:17:21Z) - "Humans welcome to observe": A First Look at the Agent Social Network Moltbook [20.305306682682087]
AIエージェント専用に設計された最初のソーシャルネットワークであるMoltbookは、2026年初頭にバイラルな成長を遂げた。
44,411件の投稿と12,209件のサブコミュニティのデータセットを活用し,大規模なモルトブックの実証分析を行った。
モルトブックは爆発的な成長と急速な多様化を示し、初期の社会的相互作用を超えて、視点、プロモーション、政治談話へと移行している。
論文 参考訳(メタデータ) (2026-02-02T19:13:50Z) - Echoes of Human Malice in Agents: Benchmarking LLMs for Multi-Turn Online Harassment Attacks [10.7231991032233]
大規模言語モデル(LLM)エージェントは、対話型Webアプリケーションのシェアを拡大するが、誤用や害に弱いままである。
i) 合成マルチターンハラスメント会話データセット、(ii) 繰り返しゲーム理論によって通知されるマルチエージェント(例えば、ハラッサー、被害者)シミュレーション、(iii) 記憶、計画、微調整にまたがるエージェントを攻撃する3つのジェイルブレイク手法、(iv) 混合メソッド評価フレームワークからなるオンラインハラスメントエージェントベンチマークを提案する。
論文 参考訳(メタデータ) (2025-10-16T01:27:44Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。